0% encontró este documento útil (0 votos)
21 vistas393 páginas

Predicción de riesgo académico en secundaria

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
21 vistas393 páginas

Predicción de riesgo académico en secundaria

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Sistema web para predicción de riesgo académico

en centros de estudio de nivel secundario en Lima


Metropolitana basado en algoritmos bayesianos

Item Type info:eu-repo/semantics/bachelorThesis

Authors Bermudez Ayvar, Mirko Michael; Hidalgo Caycho, Diana Sabrina

Publisher Universidad Peruana de Ciencias Aplicadas (UPC)

Rights info:eu-repo/semantics/openAccess

Download date 14/10/2024 23:55:34

Item License http://creativecommons.org/licenses/by-nc-sa/4.0/

Link to Item http://hdl.handle.net/10757/675439


UNIVERSIDAD PERUANA DE CIENCIAS APLICADAS

FACULTAD DE INGENIERÍA

PROGRAMA ACADÉMICO DE INGENIERÍA DE SISTEMAS

Sistema web para predicción de riesgo académico en centros de estudio de nivel


secundario en Lima Metropolitana basado en algoritmos bayesianos

TESIS
Para optar el título profesional de Ingeniero de Sistemas

AUTOR(ES)
Bermudez Ayvar, Mirko Michael 0000-0003-1573-2995
Hidalgo Caycho, Diana Sabrina 0000-0002-2351-8801

ASESOR(ES)
FERNANDEZ SANCHEZ, JUAN CARLOS 0000-0001-5408-2230

Lima, 19 de julio de 2024


DEDICATORIA

El presente trabajo está dedicado a todos aquellos que luchan incansablemente para
alcanzar sus objetivos y que, a pesar de los obstáculos que les ha puesto la vida, sentir
agotadas todas sus energías y ver al éxito inalcanzable, nunca se rindieron, se armaron de
valor y recordaron que siempre habrá luz al final del camino.

II
AGRADECIMIENTOS

Quisiéramos expresar nuestro más sincero agradecimiento a todas aquellas personas


que nos brindaron su apoyo incondicional durante todo este largo camino, en especial a
nuestros amigos y familiares, ya que, sin ellos no habría sido posible celebrar este gran logro
académico y profesional. Adicionalmente, agradecemos a nuestra casa de estudios por
permitirnos adquirir los conocimientos necesarios que hicieron posible llevar a cabo el
presente trabajo.

Sabemos que aún queda mucho camino por recorrer, pero, de la mano de Dios y
nuestros seres queridos todo será posible.

III
RESUMEN

El desconocimiento notable por parte de las instituciones frente a los casos de riesgo de su
alumnado y los factores influyentes, representan un desafío significativo para diversos
centros de estudio en Lima Metropolitana. Esta limitación en el conocimiento ha afectado la
capacidad de estas instituciones para intervenir de manera efectiva y brindar el apoyo
necesario a los estudiantes en situación de riesgo, lo que ha contribuido al incremento de la
tasa de reprobaciones, como es el caso de la I.E.P. Santiago Antúnez de Mayolo, cuya tasa
asciende en 24,51% anual para el nivel secundario.

Por ello, el presente trabajo propone el desarrollo de un sistema web predictivo basado en
un modelo de algoritmos bayesianos que permita anticipar a los docentes sobre aquellos
estudiantes de nivel secundario que estén en riesgo académico y permita tomar decisiones
de manera oportuna. El modelo se conforma de 4 componentes: Datos, Patrones de Datos,
Técnicas Predictivas y Métricas de Validación.

El primero contempla la recopilación de datos y establecimiento de variables, el segundo, el


procesamiento de datos mediante KDD, el tercero, el establecimiento del algoritmo
predictivo ML y, el cuarto, las métricas de validación.

El estudio reveló que, considerando factores económicos, sociales, familiares y académicos,


fue posible identificar con un 99,0% de eficacia y exactitud a los estudiantes de nivel
secundario en riesgo de reprobar en la institución objetivo.

Palabras clave: algoritmo de Bayes; Naïve Bayes; modelo predictivo; predicción;


estudiantes; desaprobación; desempeño; riesgo; secundaria.

IV
“Web system to predict at risk in high school study centers of Metropolitan Lima based on
Bayesian algorithms”

ABSTRACT

The notable lack of knowledge on the part of the institutions regarding the risk cases of their
students and the influencing factors represents a significant challenge for various study
centers in Metropolitan Lima. This limitation in knowledge has affected the ability of these
institutions to intervene effectively and provide the necessary support to students at risk,
which has contributed to the increase in the failure rate, as is the case of the I.E.P. Santiago
Antúnez de Mayolo, whose rate rises to 24,51% annually at the high school level.

Therefore, this study proposes the development of a predictive web system based on a
Bayesian algorithm model that allows teachers to anticipate which high school students are
at risk and enables timely decision making. The model consists of four components: Data,
Data Patterns, Predictive Techniques, and Validation Metrics.

The first component involves data collection and the establishment of variables, the second
involves data processing through KDD, the third involves the implementation of the ML
predictive algorithm, and the fourth involves validation metrics.

The study revealed that, considering economic, social, family, and academic factors, the
system identified with 99,0% efficiency and accuracy high school students at risk of failing
at the target institution.

Keywords: bayesian algorithm; Naïve Bayes; predictive model; prediction; students;


disapproval; performance; risk; high school.

V
ÍNDICE

INTRODUCCIÓN ............................................................................................................... 21

CAPÍTULO I – DEFINICIÓN DEL PROYECTO ............................................................. 23

1.1 DEFINICIÓN DEL P ROBLEMA ................................................................................. 23


1.1.1 Objeto de estudio ................................................................................................ 23
1.1.2 Dominio del Problema ........................................................................................ 26
1.1.3 Campo de acción................................................................................................. 27
1.1.4 Situación Problemática ....................................................................................... 28
1.1.5 Problema a resolver ............................................................................................ 29
1.2 DEFINICIÓN DE LA SOLUCIÓN ............................................................................... 29
1.2.1 Objetivos del Proyecto................................................................................. 29
1.2.2 Indicadores de Éxito .................................................................................... 30
1.2.3 Factibilidad del Proyecto .................................................................................... 33
1.2.4 Propuesta preliminar de la solución.................................................................... 41

CAPÍTULO II – MARCO TEÓRICO ................................................................................. 51

2.1 MARCO TEÓRICO RELACIONADO AL NEGOCIO ............................................................ 52


2.2 MARCO TEÓRICO RELACIONADO A LAS TECNOLOGÍAS DE INFORMACIÓN ................... 56
2.3 ESTADO DEL ARTE ...................................................................................................... 61
2.4 CONCLUSIONES ........................................................................................................... 63

CAPÍTULO III – DESARROLLO DE LA SOLUCIÓN .................................................... 64

3.1 INCEPCIÓN ÁGIL ......................................................................................................... 64


3.1.1 Visión del Producto (Product Vision Board) ...................................................... 64
3.1.2 Perfil del Usuario o Mapa Persona ..................................................................... 64
3.1.3 Definición de Roles ............................................................................................ 65
3.1.4 Diseño Preliminar de la Solución (Product Canvas) .......................................... 67
3.1.5 Prototipos Alto Nivel .......................................................................................... 68
3.1.6 Historias de Usuario ........................................................................................... 75
3.1.7 Product Backlog Base ......................................................................................... 76
3.1.8 Tablero Scrum Base............................................................................................ 80
3.1.9 RoadMap del Producto (Product RoadMap o Release Planning)....................... 81
3.1.10 Otras consideraciones ....................................................................................... 82

VI
3.2 ARQUITECTURA DE SOFTWARE ................................................................................... 82
3.2.1 Arquitectura Técnica Base (Conceptualización de la solución técnica)............. 82
3.2.2 Arquitectura Técnica específica ......................................................................... 87
3.3 DESARROLLO DE SPRINT 1 .......................................................................................... 93
3.3.1 Sprint Planning ................................................................................................... 94
3.3.2 Construcción del Sprint 1 ................................................................................. 101
3.3.3 Daily Meeting ................................................................................................... 108
3.3.4 Sprint Review ................................................................................................... 117
3.3.5 Sprint Retrospective.......................................................................................... 119
3.3.6 Refinamiento del Product Backlog ................................................................... 121
3.4 DESARROLLO DE SPRINT 2 ........................................................................................ 121
3.4.1 Sprint Planning ................................................................................................. 122
3.4.2 Construcción del Sprint 2 ................................................................................. 130
3.4.3 Daily Meeting ................................................................................................... 138
3.4.4 Sprint Review ................................................................................................... 149
3.4.5 Sprint Retrospective.......................................................................................... 151
3.4.6 Refinamiento del Product Backlog ................................................................... 154
3.5 DESARROLLO DEL SPRINT 3 ...................................................................................... 154
3.5.1 Sprint Planning ................................................................................................. 154
3.5.2 Construcción del Sprint 3 ................................................................................. 162
3.5.3 Daily Meeting ................................................................................................... 171
3.5.4 Sprint Review ................................................................................................... 181
3.5.5 Sprint Retrospective.......................................................................................... 183
3.5.6 Refinamiento del Product Backlog ................................................................... 186

CAPÍTULO IV – RESULTADOS DEL PROYECTO ..................................................... 186

4.1 CALIDAD DE SOFTWARE ........................................................................................... 186


4.1.1 Incremento 1 ..................................................................................................... 186
4.1.2 Incremento 2 ..................................................................................................... 188
4.1.3 Incremento 3 ..................................................................................................... 190
4.2 INCREMENTO DEL PRODUCTO .................................................................................... 192
4.2.1 Incremento 1 ..................................................................................................... 192
4.2.2 Incremento 2 ..................................................................................................... 194

VII
4.2.3 Incremento 3 ..................................................................................................... 197
4.3 CUMPLIMIENTO DE LOS INDICADORES DEL ÉXITO ..................................................... 200
4.4 CONCLUSIONES ......................................................................................................... 223

CAPÍTULO V – GESTIÓN DEL PROYECTO................................................................ 223

5.1 PLANIFICACIÓN DEL P ROYECTO .......................................................................... 223


5.1.1 Plan de Gestión del Alcance (EDT).................................................................. 224
5.1.2 Plan de Gestión del Cronograma ...................................................................... 229
5.1.3 Plan de Gestión del Costo ................................................................................. 238
5.1.4 Plan de Gestión de Calidad ............................................................................... 244
5.1.5 Plan de Gestión del Riesgo ............................................................................... 252
5.1.6 Plan de Gestión de Comunicaciones................................................................. 257
5.1.7 Plan de Gestión de Interesados ......................................................................... 259
5.2 EJECUCIÓN Y MONITOREO POR SPRINT ............................................................... 263
5.2.1 Sprint 1....................................................................................................... 263
5.2.2 Sprint 2....................................................................................................... 271
5.2.3 Sprint 3....................................................................................................... 278
5.3 EJECUCIÓN Y MONITOREO FINAL DEL PROYECTO .............................................. 287
5.3.1 Alcance ...................................................................................................... 287
5.3.2 Cronograma ............................................................................................... 293
5.3.3 Costo .......................................................................................................... 295
5.3.4 Calidad ....................................................................................................... 298
5.3.5 Riesgo ........................................................................................................ 298
5.3.6 Comunicaciones......................................................................................... 298
5.3.7 Interesados ................................................................................................. 299
5.4 CONCLUSIONES ................................................................................................... 299

CAPÍTULO VI – CUMPLIMIENTO DE STUDENTS OUTCOMES ............................. 300

6.1 STUDENT OUTCOME I ............................................................................................... 300


6.2 STUDENT OUTCOME II .............................................................................................. 300
6.3 STUDENT OUTCOME III ............................................................................................. 301
6.4 STUDENT OUTCOME IV............................................................................................. 302
6.5 STUDENT OUTCOME V .............................................................................................. 303
6.6 STUDENT OUTCOME VI............................................................................................. 304

VIII
6.7 STUDENT OUTCOME VII ........................................................................................... 304

CAPÍTULO VII – CONCLUSIONES DEL PROYECTO................................................ 305

7.1 CONCLUSIONES ................................................................................................... 305


7.2 RECOMENDACIONES ........................................................................................... 307

GLOSARIO DE TÉRMINOS ........................................................................................... 307

SIGLARIO......................................................................................................................... 308

REFERENCIAS BIBLIOGRÁFICAS .............................................................................. 308

ANEXOS ........................................................................................................................... 315

1. DOCUMENTOS DE COMPROMISO ............................................................................. 315


Anexo 1: Carta de autorización de la iniciación del proyecto ................................... 315
2. GESTIÓN DEL P ROYECTO ........................................................................................ 320
Anexo 2: Reunión N°1 - Levantamiento de Información.......................................... 320
Anexo 3: Reunión N°2 - Levantamiento de Información.......................................... 321
Anexo 4: Reunión N°3 – Presentación de la planificación del Proyecto .................. 322
Anexo 5: Reunión N°4 – Toma de requisitos del PO ................................................ 323
Anexo 6: Reunión N°5 – Presentación de los artefactos ágiles y arquitectura.......... 324
3. ACTAS DE EVENTOS O CEREMONIAS ........................................................................ 325
Anexo 7: Actas de reuniones Sprint 1 ....................................................................... 325
Anexo 8: Actas de reuniones Sprint 2 ....................................................................... 342
Anexo 9: Actas de reuniones Sprint 3 ....................................................................... 361
Anexo 10: Aprobación del Análisis del Negocio ...................................................... 376
Anexo 11: Aprobación de la Factibilidad del Proyecto ............................................. 377
Anexo 12: Aprobación de la Planificación del Proyecto ........................................... 378
Anexo 13: Aprobación de la Arquitectura del Proyecto............................................ 379
Anexo 14: Aprobación del Plan de Gestión de Calidad del Producto ....................... 380
4. DOCUMENTOS VARIOS ............................................................................................ 381
Anexo 15: Aprobación técnica y funcional del Modelo Predictivo de Riesgo
Estudiantil .................................................................................................................. 381
Anexo 16: Aprobación del cumplimiento de los indicadores del proyecto ............... 382
Anexo 17: Aprobación del entregable final del proyecto .......................................... 383
Anexo 18: Servicios Azure ........................................................................................ 384

IX
Anexo 19: Costos de sueldos del mercado ................................................................ 386
Anexo 20: Encuestas a estudiantes ............................................................................ 388
Anexo 21: Aprobación de calidad del producto ........................................................ 389
Anexo 22: Sueldo Soporte Técnico ........................................................................... 391

X
ÍNDICE DE TABLAS

Tabla 1: Clasificación de Estudiantes de Nivel Secundario en la I.E.P Santiago Antúnez de


Mayolo ................................................................................................................................. 26
Tabla 2: Clasificación de Estudiantes Desaprobados de Nivel Secundario en la I.E.P
Santiago Antúnez de Mayolo (%)........................................................................................ 26
Tabla 3: Índice de reprobación estudiantil en la I.E.P Santiago Antúnez de Mayolo para el
nivel secundario hasta el año 2021 con respecto al año 2018 ............................................. 27
Tabla 4: Indicadores de éxito del proyecto .......................................................................... 30
Tabla 5: Detalle de egresos posterior a la implementación del proyecto ............................ 34
Tabla 6: Detalle de ingresos ................................................................................................ 34
Tabla 7: Flujo de Caja Neto del Proyecto............................................................................ 37
Tabla 8: Benchmarking de estudios asociados a la predicción académica.......................... 40
Tabla 9: Clasificación y definición de variables.................................................................. 44
Tabla 10: Valores resultantes de la predicción de algoritmos clasificadores. ..................... 47
Tabla 11: Valores de la encuesta a estudiantes.................................................................... 49
Tabla 12: Clasificación de artículos por taxonomía ............................................................ 61
Tabla 13: Equipo del Proyecto Scrum ................................................................................. 66
Tabla 14: Equipo del Proyecto ............................................................................................ 67
Tabla 15: HU del proyecto .................................................................................................. 75
Tabla 16: Matriz de opciones Modelo Kano ....................................................................... 76
Tabla 17: Resultados obtenidos del Modelo Kano .............................................................. 78
Tabla 18: Product Backlog Base del Proyecto .................................................................... 79
Tabla 19: Restricciones del proyecto................................................................................... 82
Tabla 20: Requerimientos que impactan la arquitectura ..................................................... 88
Tabla 21: Restricciones de la arquitectura ........................................................................... 88
Tabla 22: Mecanismos y tácticas de diseño......................................................................... 89
Tabla 23: Especificación de las capas lógicas del sistema .................................................. 90
Tabla 24: Especificación de la arquitectura física del sistema ............................................ 92
Tabla 25: DoR del Sprint 1 .................................................................................................. 94
Tabla 26: DoD del Sprint 1.................................................................................................. 95
Tabla 27: Historias de Usuario del Sprint 1......................................................................... 95

XI
Tabla 28: Criterios de Aceptación para las HU del Sprint 1 ............................................... 96
Tabla 29: Tareas técnicas por HU para el Sprint 1 .............................................................. 97
Tabla 30: Sprint Backlog del Sprint 1 ................................................................................. 99
Tabla 31: Escenarios y Casos de Prueba definidos para el Sprint 1 .................................. 104
Tabla 32: Checklist de cumplimiento del DoD del Sprint 1.............................................. 106
Tabla 33: Burndown Chart - Estimación Esperada por HU del Sprint 1........................... 109
Tabla 34: Burndown Chart - Estimación Esperada por Tareas del Sprint 1...................... 109
Tabla 35: Burndown Chart - Avance Real por HU del Sprint 1........................................ 111
Tabla 36: Burndown Chart - Avance Real por Tareas del Sprint 1 ................................... 112
Tabla 37: Matriz de Impedimentos del Sprint 1 ................................................................ 116
Tabla 38: Estado de las Historias de Usuario del Sprint 1 ................................................ 117
Tabla 39: Problemas encontrados por HU del Sprint 1 ..................................................... 118
Tabla 40: Acuerdos con el PO para el Sprint 1 ................................................................. 118
Tabla 41: Plan de Acciones de Mejora Sprint 1 ................................................................ 119
Tabla 42: DoR del Sprint 2 ................................................................................................ 122
Tabla 43: DoD del Sprint 2................................................................................................ 122
Tabla 44: Historias de Usuario del Sprint 2....................................................................... 123
Tabla 45: Criterios de Aceptación para las HU del Sprint 2 ............................................. 124
Tabla 46: Tareas técnicas por HU para el Sprint 2 ............................................................ 126
Tabla 47: Sprint Backlog del Sprint 2 ............................................................................... 128
Tabla 48: Escenarios y Casos de Prueba definidos para el Sprint 2 .................................. 134
Tabla 49: Checklist de cumplimiento del DoD del Sprint 2.............................................. 137
Tabla 50: Burndown Chart - Estimación Esperada por HU del Sprint 2........................... 140
Tabla 51: Burndown Chart - Estimación Esperada por Tareas del Sprint 2...................... 141
Tabla 52: Burndown Chart - Avance Real por HU del Sprint 2........................................ 143
Tabla 53: Burndown Chart - Avance Real por Tareas del Sprint 2 ................................... 143
Tabla 54: Matriz de Impedimentos del Sprint 2 ................................................................ 148
Tabla 55: Estado de las Historias de Usuario del Sprint 2 ................................................ 149
Tabla 56: Problemas encontrados por HU del Sprint 2 ..................................................... 150
Tabla 57: Acuerdos con el PO para el Sprint 2 ................................................................. 151
Tabla 58: Plan de Acciones de Mejora Sprint 2 ................................................................ 152
Tabla 59: DoR del Sprint 3 ................................................................................................ 155
Tabla 60: DoD del Sprint 3................................................................................................ 155

XII
Tabla 61: Historias de Usuario del Sprint 3....................................................................... 156
Tabla 62: Criterios de Aceptación para las HU del Sprint 3 ............................................. 157
Tabla 63: Tareas técnicas por HU para el Sprint 3 ............................................................ 158
Tabla 64: Sprint Backlog del Sprint 3 ............................................................................... 160
Tabla 65: Escenarios y Casos de Prueba definidos para el Sprint 3 .................................. 166
Tabla 66: Checklist de cumplimiento del DoD del Sprint 3.............................................. 169
Tabla 67: Burndown Chart - Estimación Esperada por HU del Sprint 3........................... 172
Tabla 68: Burndown Chart - Estimación Esperada por Tareas del Sprint 3...................... 173
Tabla 69: Burndown Chart - Avance Real por HU del Sprint 3........................................ 175
Tabla 70: Burndown Chart - Avance Real por Tareas del Sprint 3 ................................... 176
Tabla 71: Matriz de Impedimentos del Sprint 3 ................................................................ 180
Tabla 72: Estado de las Historias de Usuario del Sprint 3 ................................................ 181
Tabla 73: Problemas encontrados por HU del Sprint 3 ..................................................... 182
Tabla 74: Acuerdos con el PO para el Sprint 3 ................................................................. 183
Tabla 75: Plan de Acciones de Mejora Sprint 3 ................................................................ 184
Tabla 76: Control de métricas de calidad de Software Incremento1 ................................. 186
Tabla 77: Control de métricas de calidad de Software Incremento 2 ................................ 188
Tabla 78: Control de métricas de calidad de Software Incremento 3 ................................ 190
Tabla 79: Cumplimiento del objetivo SG01 ...................................................................... 200
Tabla 80: Cumplimiento del objetivo SG02 ...................................................................... 201
Tabla 81: Cumplimiento del objetivo SG03 para el Sprint 1 ............................................ 202
Tabla 82: Casos de Prueba Sprint 1 ................................................................................... 202
Tabla 83: Cumplimiento del objetivo SG03 para el Sprint 2 ............................................ 203
Tabla 84: Casos de Prueba Sprint 2 ................................................................................... 204
Tabla 85: Cumplimiento del objetivo SG03 para el Sprint 3 ............................................ 205
Tabla 86: Casos de Prueba Sprint 3 ................................................................................... 205
Tabla 87: Cumplimiento del objetivo SG04 ...................................................................... 207
Tabla 88: Clasificación de estudiantes de la muestra de la primera ejecución.................. 209
Tabla 89: Tasas de retorno obtenidas a partir de los resultados de la primera ejecución .. 214
Tabla 90: Clasificación de estudiantes de la muestra de la segunda ejecución ................. 216
Tabla 91: Tasas de retorno obtenidas a partir de los resultados de la segunda ejecución . 219
Tabla 92: Índice de reprobación estudiantil intervalo 2018-2022 ..................................... 221
Tabla 93: Alcance del proyecto ......................................................................................... 226

XIII
Tabla 94: Paquetes de Trabajo y Actividades del Proyecto .............................................. 229
Tabla 95: Hitos del Proyecto ............................................................................................. 233
Tabla 96: Estimación de días por actividad ....................................................................... 233
Tabla 97: Costo del proyecto ............................................................................................. 238
Tabla 98: Presupuesto del proyecto (Por Fase y por Entregable)...................................... 241
Tabla 99: Presupuesto del proyecto (Por Fase y por Tipo de Recurso)............................. 242
Tabla 100: Presupuesto del proyecto (Por Semana) .......................................................... 243
Tabla 101: Política de Calidad........................................................................................... 244
Tabla 102: Roles para la Gestión de la Calidad................................................................. 245
Tabla 103: Línea Base de Calidad del Proyectos .............................................................. 247
Tabla 104: Métricas CPI y SPI de PMBOK ...................................................................... 248
Tabla 105: Normatividad aplicable para garantizar la calidad del proyecto ..................... 248
Tabla 106: Métricas de calidad de Software ISO/IEC-25010 ........................................... 250
Tabla 107: Riesgos del proyecto........................................................................................ 252
Tabla 108: Identificación de Interesados del proyecto ...................................................... 259
Tabla 109: Matriz Poder vs Interés.................................................................................... 260
Tabla 110: Matriz de Poder vs Influencia.......................................................................... 261
Tabla 111: Nivel de Involucramiento de los Interesados .................................................. 262
Tabla 112: Análisis de Brechas ......................................................................................... 263
Tabla 113: Cuadro de verificación de hitos para validar el cumplimiento del alcance del
proyecto – Sprint 1............................................................................................................. 264
Tabla 114: Cuadro de verificación de paquetes de trabajo para validar el cumplimiento del
alcance del proyecto – Sprint 1.......................................................................................... 264
Tabla 115: Avance planificado vs Avance real – Sprint 1 ................................................ 265
Tabla 116: Métrica SPI del PMBOK Sprint 1 ................................................................... 267
Tabla 117: Costo planificado vs Costo real – Sprint 1 ...................................................... 267
Tabla 118: Métrica CPI del PMBOK Sprint 1 .................................................................. 269
Tabla 119: Cuadro de verificación para validar el cumplimiento efectivo de la comunicación
dentro del proyecto – Sprint 1 ........................................................................................... 270
Tabla 120: Cuadro de verificación de hitos para validar el cumplimiento del alcance del
proyecto – Sprint 2............................................................................................................. 271
Tabla 121: Cuadro de verificación de paquetes de trabajo para validar el cumplimiento del
alcance del proyecto – Sprint 2.......................................................................................... 271

XIV
Tabla 122: Avance planificado vs Avance real – Sprint 2 ................................................ 272
Tabla 123: Métrica SPI del PMBOK Sprint 2 ................................................................... 274
Tabla 124: Costo planificado vs Costo real – Sprint 2 ...................................................... 274
Tabla 125: Métrica CPI del PMBOK Sprint 2 .................................................................. 277
Tabla 126: Cuadro de verificación para validar el cumplimiento efectivo de la comunicación
dentro del proyecto – Sprint 2 ........................................................................................... 278
Tabla 127: Cuadro de verificación de hitos para validar el cumplimiento del alcance del
proyecto – Sprint 3............................................................................................................. 279
Tabla 128: Cuadro de verificación de paquetes de trabajo para validar el cumplimiento del
alcance del proyecto – Sprint 3.......................................................................................... 279
Tabla 129: Avance planificado vs Avance real – Sprint 3 ................................................ 280
Tabla 130: Métrica SPI del PMBOK Sprint 3 ................................................................... 282
Tabla 131: Costo planificado vs Costo real – Sprint 3 ...................................................... 283
Tabla 132: Métrica CPI del PMBOK Sprint 3 .................................................................. 285
Tabla 133: Cuadro de verificación para validar el cumplimiento efectivo de la comunicación
dentro del proyecto – Sprint 3 ........................................................................................... 286
Tabla 134: Cuadro de verificación de hitos para validar el cumplimiento final del alcance
del proyecto ....................................................................................................................... 287
Tabla 135: Cuadro de verificación de paquetes de trabajo para validar el cumplimiento final
del alcance del proyecto..................................................................................................... 288
Tabla 136: Avance planificado vs Avance real del proyecto ............................................ 293
Tabla 137: Métrica SPI del PMBOK al finalizar el proyecto............................................ 295
Tabla 138: Costo planificado vs Costo real del proyecto .................................................. 295
Tabla 139: Métrica CPI del PMBOK al finalizar el proyecto ........................................... 297
Tabla 140: Cuadro de verificación para validar el cumplimiento efectivo de la comunicación
dentro del proyecto ............................................................................................................ 299

XV
ÍNDICE DE FIGURAS

Figura 1: Organigrama de la institución .............................................................................. 25


Figura 2: Árbol de Problemas .............................................................................................. 28
Figura 3: Propuesta de Modelo predictivo de riesgo escolar basado en algoritmos bayesianos
............................................................................................................................................. 42
Figura 4: Factores influyentes en la reprobación estudiantil ............................................... 43
Figura 5: Proceso de entrenamiento de los algoritmos bayesianos ..................................... 46
Figura 6: Proceso de predicción de los algoritmos bayesianos ........................................... 46
Figura 7: Fases para la validación del modelo propuesto .................................................... 48
Figura 8: Funcionamiento de API basada en algoritmos bayesianos para Predecir el Riesgo
Estudiantil ............................................................................................................................ 51
Figura 9: Evolución de la educación ................................................................................... 52
Figura 10: Digitalización educativa en Latinoamérica ........................................................ 53
Figura 11: Ubicación de principales países Latinoamericanos en el índice de competitividad
mundial, 2018 - 2019 ........................................................................................................... 54
Figura 12: Resultados de veedurías escolares a estrategia "Aprendo en Casa" .................. 55
Figura 13: Tipos de aprendizaje automático........................................................................ 57
Figura 14: Modelo de Aprendizaje Supervisado ................................................................. 59
Figura 15: La minería de datos como un paso en el proceso de descubrimiento de
conocimiento........................................................................................................................ 59
Figura 16: Product Vision Board ......................................................................................... 64
Figura 17: Mapa del Perfil del Usuario ............................................................................... 65
Figura 18: Esquema de roles del Proyecto (Scrum) ............................................................ 65
Figura 19: Product Canvas................................................................................................... 68
Figura 20: Login .................................................................................................................. 68
Figura 21: Mi Perfil - Estudiante ......................................................................................... 69
Figura 22: Responder Encuesta - Estudiante ....................................................................... 69
Figura 23: Mi perfil - Docente ............................................................................................. 70
Figura 24: Monitorear Encuestas - Docente ........................................................................ 70
Figura 25: Predecir Estudiantes en Riesgo - Docente ......................................................... 71
Figura 26: Consultar Estudiantes en Riesgo - Docente ....................................................... 71

XVI
Figura 27: Generar Tips de Estudio - Docente .................................................................... 72
Figura 28: Generar Reporte de Estudiantes en Riesgo - Administrador ............................. 72
Figura 29: Gestionar Secciones - Administrador................................................................. 73
Figura 30: Gestionar Usuarios - Administrador .................................................................. 73
Figura 31: Gestionar Usuarios – Administrador- Actualizar............................................... 74
Figura 32: Editar Datos Usuario .......................................................................................... 74
Figura 33: Gestionar Acciones - Administrador.................................................................. 75
Figura 34: Planning Poker MPDEAB en la plataforma Planning Poker Online ................. 76
Figura 35: Interpretación del Modelo Kano ........................................................................ 77
Figura 36: Tablero Scrum Base en la plataforma Trello ..................................................... 81
Figura 37: RoadMap del producto ....................................................................................... 81
Figura 38: Modelo 4C - Diagrama de Contexto .................................................................. 83
Figura 39: Modelo 4C - Diagrama de Contenedores ........................................................... 83
Figura 40: Modelo 4C - Diagrama de Componentes ........................................................... 84
Figura 41: Modelo 4C - Diagrama de Código ..................................................................... 86
Figura 42: Arquitectura de Datos ........................................................................................ 87
Figura 43: Diagrama de Capas del Sistema ......................................................................... 90
Figura 44: Arquitectura física del sistema ........................................................................... 92
Figura 45: Tablero Scrum Sprint 1 Actualizado ................................................................ 101
Figura 46: HU001 - Predicción del Riego Escolar ............................................................ 102
Figura 47: HU002 - Responder Encuesta .......................................................................... 102
Figura 48: HU003 - Consultar estudiantes en riesgo ......................................................... 103
Figura 49: Gestión del Tablero Scrum para el Sprint 1 ..................................................... 104
Figura 50: Sprint Burndown Chart por HU- Sprint 1 ........................................................ 114
Figura 51: Sprint Burndown Chart por Tareas - Sprint 1 .................................................. 115
Figura 52: Sprint Burndown Chart por HU (Estimación vs Real) - Sprint 1 .................... 115
Figura 53: Sprint Burndown Chart por Tareas (Estimación vs Real) - Sprint 1 ............... 116
Figura 54: Retrospectiva Sprint 1 ...................................................................................... 120
Figura 55: Tablero Scrum Sprint 2 Actualizado ................................................................ 130
Figura 56: HU004 - Monitorear Encuestas........................................................................ 131
Figura 57: HU005 – Generar Reporte de Estudiantes en Riesgo ...................................... 131
Figura 58: HU006 – Gestionar Acciones........................................................................... 132
Figura 59: HU007 – Gestionar Secciones ......................................................................... 132

XVII
Figura 60: Gestión del Tablero Scrum para el Sprint 2 ..................................................... 133
Figura 61: Sprint Burndown Chart por HU- Sprint 2 ........................................................ 146
Figura 62: Sprint Burndown Chart por Tareas - Sprint 2 .................................................. 147
Figura 63: Sprint Burndown Chart por HU (Estimación vs Real) - Sprint 2 .................... 147
Figura 64: Sprint Burndown Chart por Tareas (Estimación vs Real) - Sprint 2 ............... 148
Figura 65: Retrospectiva Sprint 2 ...................................................................................... 153
Figura 66: Tablero Scrum Sprint 3 Actualizado ................................................................ 162
Figura 67: HU008 – Generar Tips de Estudio ................................................................... 163
Figura 68: HU009 - Gestionar Usuarios ............................................................................ 163
Figura 69: HU010 - Acceso del sistema ............................................................................ 164
Figura 70: HU011 – Cerrar sesión ..................................................................................... 164
Figura 71: HU012 – Editar Datos Usuario ........................................................................ 165
Figura 72: Gestión del Tablero Scrum para el Sprint 3 ..................................................... 166
Figura 73: Sprint Burndown Chart por HU- Sprint 3 ........................................................ 178
Figura 74: Sprint Burndown Chart por Tareas - Sprint 3 .................................................. 179
Figura 75: Sprint Burndown Chart por HU (Estimación vs Real) - Sprint 3 .................... 179
Figura 76: Sprint Burndown Chart por Tareas (Estimación vs Real) - Sprint 3 ............... 180
Figura 77: Retrospectiva Sprint 3 ...................................................................................... 185
Figura 78: HU001 - Predicción del Riego Escolar - Incremento 1.................................... 192
Figura 79: HU002 - Responder Encuesta - Incremento 1.................................................. 193
Figura 80: HU003 - Consultar estudiantes en riesgo - Incremento 1 ................................ 193
Figura 81: HU004 - Monitorear Encuesta - Incremento 2................................................. 194
Figura 82: HU005 – Generar Reporte de Estudiantes en Riesgo - Incremento 2 .............. 195
Figura 83: HU006 – Gestionar Acciones - Incremento 2 .................................................. 195
Figura 84: HU007 – Gestionar Secciones - Incremento 2 ................................................. 196
Figura 85: HU008 - Generar tips de estudio - Incremento 3 ............................................. 197
Figura 86: HU009 - Gestionar Usuarios - Incremento 3 ................................................... 197
Figura 87: HU010 - Acceso del sistema - Incremento 3 ................................................... 198
Figura 88: HU011 - Cerrar sesión - Incremento 3 ............................................................. 198
Figura 89: HU012 - Editar datos usuario - Incremento 3 .................................................. 199
Figura 90: Clasificación de respuestas obtenidas en las encuestas de la primera ejecución
........................................................................................................................................... 210
Figura 91: Predicción vs Real para la sección A de la primera ejecución......................... 211

XVIII
Figura 92: Predicción vs Real para la sección B de la primera ejecución ......................... 212
Figura 93: Predicción vs Real para la sección C de la primera ejecución ......................... 212
Figura 94: Predicción vs Real para la sección D de la primera ejecución......................... 213
Figura 95: Predicción vs Real para la sección E de la primera ejecución ......................... 214
Figura 96: Clasificación de respuestas obtenidas en las encuestas de la segunda ejecución
........................................................................................................................................... 217
Figura 97: Predicción vs Real para la sección E de la segunda ejecución ........................ 219
Figura 98: EDT del proyecto ............................................................................................. 224
Figura 99: Cronograma del proyecto (GANTT)................................................................ 237
Figura 100: Organigrama de calidad del proyecto ............................................................ 245
Figura 101: Rendimiento del Cronograma – Sprint 1 ....................................................... 266
Figura 102: Rendimiento del Costo - Sprint 1 ................................................................... 268
Figura 103: Rendimiento del Cronograma – Sprint 2 ....................................................... 273
Figura 104: Rendimiento del Costo – Sprint 2 .................................................................. 276
Figura 105: Rendimiento del Cronograma – Sprint 3 ....................................................... 281
Figura 106: Rendimiento del Costo – Sprint 3 .................................................................. 284
Figura 107: Rendimiento del Cronograma del proyecto ................................................... 294
Figura 108: Rendimiento del Costo del proyecto .............................................................. 297

XIX
ÍNDICE DE ECUACIONES

Ecuación 1: Cantidad de Artículos Analizados ................................................................... 31


Ecuación 2: Índice de defectos ............................................................................................ 32
Ecuación 3: Eficacia ............................................................................................................ 32
Ecuación 4: Exactitud .......................................................................................................... 32
Ecuación 5: Teorema de Bayes............................................................................................ 45
Ecuación 6: Porcentaje de alumnos en riesgo aprobados .................................................... 48
Ecuación 7: Diferencia entre índices de reprobación .......................................................... 48
Ecuación 8: Cumplimiento de Criterios de Aceptación por HU ....................................... 250
Ecuación 9: Concurrencia .................................................................................................. 250
Ecuación 10: Índice de errores UX.................................................................................... 251

XX
INTRODUCCIÓN

La limitación en el conocimiento por parte de las instituciones respecto a los riesgos


que enfrentan sus alumnos y los factores que los condicionan, plantea un desafío
considerable para numerosos centros educativos de nivel secundario en Lima Metropolitana.
Esta falta de información ha mermado la capacidad de estas instituciones para intervenir de
manera efectiva y ofrecer el respaldo necesario a los estudiantes en situación de
vulnerabilidad, lo que ha contribuido al crecimiento de la tasa de reprobación en las
instituciones educativas a nivel nacional. Esta problemática se agrava en Lima, una de las
regiones más afectadas por el fenómeno de la reprobación, donde muchas instituciones
enfrentan dificultades para abordar adecuadamente esta situación (Ministerio de Educación
[MINEDU], 2022).

Un claro ejemplo es la I.E.P. Santiago Antúnez de Mayolo, ubicada en Ancón, Lima, Perú,
que contó con un total de 1113 estudiantes matriculados para el año lectivo 2022 (I.E.P.
Santiago Antúnez de Mayolo, 2022). Dicha institución ha desatado un incremento en su tasa
de reprobación la cual asciende en 24,51% anual. Adicionalmente, la institución presenta
una notable disminución en la cantidad de matrículas para el nivel secundario, la cual tiene
una tendencia a la baja para el intervalo 2018-2021, disminuyendo de 1191 a 1023 en solo 3
años, lo que equivale al 14,1% de matrículas. Esta tendencia es directamente proporcional a
las desaprobaciones, las cuales aumentaron de 93 a 205 en el mismo periodo, lo cual
corresponde a un aumento del 120,4% de éstas, lo que evidencia la estrecha relación causa-
efecto de la desaprobación de los estudiantes con la disminución de matrículas.

Por ello, el presente proyecto busca tener como objetivo aportar una solución tecnológica
que contribuya con la disminución del índice de reprobación estudiantil en Lima
Metropolitana mediante el uso de tecnologías predictivas y minería de datos que permitan
identificar de manera anticipada a los estudiantes en riesgo académico. Esto proporcionará
a los centros educativos una mejor visibilidad y posibilidades de intervención para abordar
este desafío, con el objetivo de incrementar la calidad en la enseñanza en el país.

El documento se encuentra organizado en 7 capítulos los cuales se describen a continuación:

El primer capítulo contiene la definición del proyecto, contempla la descripción de la


problemática, el objeto de estudio, dominio del problema, campo de acción y la necesidad

21
identificada que impulsa esta investigación. Aquí se establecen los objetivos e indicadores
necesarios para medir los resultados del proyecto y se analiza que tan factible es llevarlo a
cabo.

El segundo capítulo abarca el marco teórico del proyecto, el cual contiene el detalle de las
disciplinas y/o conceptos aplicados en su desarrollo.

El tercer capítulo contempla el desarrollo de la solución. Aquí se realiza la incepción ágil,


dando origen a los artefactos ágiles indispensables para la ejecución del proyecto, además,
se detalla el desarrollo de los 3 Sprints considerados para su implementación, incluyendo la
arquitectura técnica base y específica.

El cuarto capítulo describe los resultados del proyecto, incluyendo el monitoreo por cada
etapa del proyecto, validando que se hayan cumplido satisfactoriamente las métricas de
calidad establecidas por cada área de conocimiento para medir el éxito de cada objetivo
específico definido, evidenciando así el cumplimiento de cada uno de ellos.

El quinto capítulo presenta los planes de la gestión del proyecto conforme a los estándares
establecidos en la guía PMBOK.

El sexto capítulo presenta los 7 Student Outcomes ABET asociados con el programa
académico y se evidencia el cumplimiento de cada uno de ellos en el proyecto.

Por último, el séptimo capítulo contiene las conclusiones y recomendaciones del proyecto
las cuales contemplan la recapitulación de los aportes generados a lo largo del ciclo de vida
de este.

22
CAPÍTULO I – DEFINICIÓN DEL PROYECTO
En el presente capítulo se introducirá al tema de investigación analizando los
antecedentes encontrados en la rama de educación y en la institución objetivo con la finalidad
de detectar la problemática a resolver. Asimismo, se mencionan los objetivos a los que se
rige el estudio, tanto de manera general como específica, con sus indicadores de éxito
respectivos. Por último, se detalla y sustenta la factibilidad del presente proyecto, tanto de
manera técnica como económica.

1.1 Definición del Problema


La elevada tasa de reprobación estudiantil en las instituciones secundarias de Lima
Metropolitana, agravada por la falta de información precisa sobre los riesgos y factores que
afectan a los estudiantes, ha dificultado la intervención efectiva y el apoyo a los estudiantes
vulnerables, como evidencia el caso de la I.E.P. Santiago Antúnez de Mayolo (I.E.P.
Santiago Antúnez de Mayolo, 2022).

En la presente sección se detalla la definición del problema al que se pretende dar solución
junto al objeto de estudio.

1.1.1 Objeto de estudio


El objetivo del estudio es desarrollar e implementar una solución tecnológica basada en
análisis predictivo para detectar anticipadamente a los estudiantes en riesgo académico en
instituciones educativas de nivel secundario en Lima Metropolitana. Esto busca
proporcionar a las instituciones educativas mayor visibilidad sobre los factores de riesgo,
facilitando intervenciones oportunas y adecuadas, y así reducir la tasa de reprobación
estudiantil y mejorar la calidad educativa.

1.1.1.1 Organización objetivo


Se tiene como organización objetivo a los centros de estudio de nivel secundario ubicados
en Lima Metropolitana, en este caso en particular, para la elaboración del presente proyecto
se tomará como caso de estudio a la I.E.P Santiago Antúnez de Mayolo la cual está ubicada
en el distrito de Ancón, Lima, Perú.

1.1.1.2 Antecedentes
La I.E.P Santiago Antúnez de Mayolo es una institución orientada a la educación de nivel
primario y secundario de niños y jóvenes del distrito de Ancón, la cual cuenta con más de
15 años en el sector y se ha ganado la confianza de los padres de familia de la comunidad.

23
Brinda a sus estudiantes el servicio de educación básica regular con el fin de potenciar su
aprendizaje y prepararlos para afrontar los nuevos desafíos que impone el sistema educativo
actual. Asimismo, fomenta sus capacidades individuales con el fin de ayudarlos a vencer sus
dificultades para alcanzar sus metas y objetivos (I.E.P. Santiago Antúnez de Mayolo, 2022).

La institución enseña a sus estudiantes desde muy pequeños a organizarse y ser autónomos
para poder cumplir con las exigencias y capacidades propias de esta institución. Además,
fomenta un ambiente de solidaridad y respeto mutuo con el fin de inculcar los valores en
cada uno de ellos (I.E.P. Santiago Antúnez de Mayolo, 2022).

Cuenta con docentes especializados para cada materia en estudio y le da a cada curso la
importancia requerida, incluyendo la educación física y las artes a su malla curricular.
Además, cuenta con dos secciones por grado, las cuales tienen un tutor respectivo que guía
a los estudiantes en el camino para lograr sus objetivos (I.E.P. Santiago Antúnez de Mayolo,
2022).

1.1.1.3 Misión
Garantizar una educación de calidad a estudiantes de nivel primario y
secundario, brindando una formación en valores que atiendan las demandas del
mundo contemporáneo a través de tácticas y recursos basados en los últimos avances
tecnológicos, fomentando la innovación y creatividad ofreciendo un servicio
educativo de gran eficacia educativa para el desarrollo integral de los estudiantes en
todos sus aspectos, potenciando sus habilidades, aptitudes y fortalezas. (I.E.P.
Santiago Antúnez de Mayolo, 2022, p.1)

1.1.1.4 Visión
Ser la institución líder del sistema institucional en Lima Metropolitana, en
donde la educación sea de alto nivel a través de enfoques innovadores y el estudiante
lidere propio proceso de aprendizaje mediante el uso de herramientas tecnológicas,
teniendo como resultado a estudiantes preparados para asumir los nuevos retos de la
exigencia educativa. (I.E.P. Santiago Antúnez de Mayolo, 2022, p.1)

1.1.1.5 Objetivos estratégicos


A continuación, se detallan los objetivos estratégicos de la institución objetivo según
la I.E.P. Santiago Antúnez de Mayolo (2022):

24
Calidad Educativa

SG01: Garantizar una educación inclusiva y equitativa.

SG02: Incrementar la utilización de plataformas tecnológicas para contribuir con el


aprendizaje de los estudiantes.

SG03: Garantizar la comunicación activa entre docentes y estudiantes.

Calidad de Docencia

SG04: Incrementar el número de capacitaciones a los docentes.

SG05: Garantizar que los docentes cumplan con el proceso de capacitación


correspondiente.

Aumento de Rentabilidad

SG06: Incrementar la cantidad de matrículas.

SG07: Aumentar la retención de estudiantes.

1.1.1.6 Organigrama
A continuación, se presenta el organigrama de la institución objetivo elaborado a base de la
información interna del centro educativo y se resume en lo siguiente:

Figura 1

Organigrama de la institución

Nota. Elaborado a partir de “Inicio”, por I.E.P. Santiago Antúnez de Mayolo, 2022,
(https://colegio-sam.edu.pe/).

25
1.1.2 Dominio del Problema
En los últimos años, las instituciones educativas se han visto notoriamente afectadas
por el fenómeno de la desaprobación estudiantil, como es el caso de la I.E.P. Santiago
Antúnez de Mayolo. Para entender mejor el contexto, se ha tomado una muestra de los datos
de la institución objetivo para llevar a cabo un análisis profundo y determinar el porcentaje
de aumento del índice de reprobación estudiantil del nivel secundario. Este dato nos sirve
como principal referente de la problemática a tratar en el presente estudio.

Tabla 1

Clasificación de Estudiantes de Nivel Secundario en la I.E.P Santiago Antúnez de Mayolo


Estudiantes de Nivel Secundario
2018 2019 2020 2021
Secundaria 1191 1095 1054 1023

Nota. La tabla muestra la clasificación de estudiantes de nivel secundario en la I.E.P Santiago


Antúnez de Mayolo. Elaboración propia a partir de documentos internos de la institución
facilitados por el PO.

Como se observa en la Tabla 1, primero se clasificó el total de estudiantes


matriculados en nivel secundario por cada año lectivo.

Tabla 2
Clasificación de Estudiantes Desaprobados de Nivel Secundario en la I.E.P Santiago
Antúnez de Mayolo (%)

Estudiantes Desaprobados de Nivel Secundario (%)


2018 2019 2020 2021
Secundaria 93 109 130 205
Total (%) 9,09% 10,34% 11,87% 17,21%

Nota. La tabla muestra la clasificación de estudiantes desaprobados de nivel secundario en


la I.E.P Santiago Antúnez de Mayolo. Elaboración propia a partir de documentos internos
de la institución facilitados por el PO.

26
Luego se procedió a realizar el mismo proceso con la cantidad de estudiantes
desaprobados por año, tal como se muestra en la Tabla 2. Para calcular el porcentaje que
representa esta cantidad en base al total por año se tomó como base los totales de la Tabla 1.

Se puede observar que desde el 2018 al 2021, el porcentaje de estudiantes de nivel


secundario desaprobados en la institución ha ido en aumento.

Tabla 3
Índice de reprobación estudiantil en la I.E.P Santiago Antúnez de Mayolo para el nivel
secundario hasta el año 2021 con respecto al año 2018

2018 2019 2020 2021


Índice de reprobación (%): - 13,76% 14,80% 44,98%
Índice de crecimiento anual (%): 24,51%

Nota. La tabla muestra el índice de reprobación estudiantil en la I.E.P Santiago Antúnez de


Mayolo para el nivel secundario hasta el año 2021 con respecto al año 2018. Elaboración
propia a partir de cálculos realizados con la información de las tablas 1 y 2.

Tomando como base el porcentaje de desaprobación del año 2018 obtenido en la


Tabla 2, se ha podido hallar el índice de reprobación por cada año lectivo siguiente para el
nivel secundario, siendo visible que, en el año 2021, este índice ha incrementado de una
manera considerable.

Finalmente, se realizó un promedio de estos porcentajes para hallar el índice de


crecimiento anual de las desaprobaciones en la institución, tal como se observa en la Tabla
3, el cual asciende en 24,51% al año.

1.1.3 Campo de acción


El campo de acción del presente estudio es el análisis del fenómeno de la
desaprobación estudiantil en instituciones educativas de nivel secundario en Lima
Metropolitana con la finalidad de detectar de manera anticipada a aquellos estudiantes que
se encuentren en riesgo académico.

En esta ocasión el estudio estará basado en el caso particular de la I.E.P. Santiago


Antúnez de Mayolo que posee un índice de reprobación estudiantil que incrementa en 24,5%

27
anual. Para conocer más sobre el fenómeno se ha realizado una investigación exhaustiva del
mismo, indagando fuentes confiables que detallen los factores influyentes en el mismo.

1.1.4 Situación Problemática


Se ha identificado como situación problemática al aumento del índice de
reprobaciones estudiantiles en centros de estudio de nivel secundario en Lima Metropolitana.
Para el presente estudio, se tomará como referencia el índice institucional correspondiente a
la I.E.P. Santiago Antúnez de Mayolo el cual asciende a 24,5% en los últimos años.

Para poder identificar las causas que dan origen a esta problemática y abarcarlas en
el presente estudio, se ha desarrollado el siguiente árbol de problemas:

Figura 2

Árbol de Problemas

Nota. Las causas abarcadas en llaves serán solucionadas con la implementación del presente
proyecto. Elaborado a partir de “Inicio”, por I.E.P. Santiago Antúnez de Mayolo, 2022,
(https://colegio-sam.edu.pe/).

28
En base a la Figura 2, se puede deducir que, a causa de diversos factores, los
estudiantes se sienten desmotivados y pierden el interés en el estudio, lo cual afecta
negativamente su rendimiento, llegando a caer en riesgo académico, además, el
desconocimiento de la institución sobre estos casos de riesgo y los factores que influyen en
los mismos, la limita a tomar acciones oportunas para evitar que sus estudiantes desaprueben
y se muestra indiferente frente a esta situación, lo que provoca que el índice de reprobación
estudiantil siga aumentando y con ello, la reprobación a nivel nacional, dando paso a otro de
los grandes fenómenos que afecta al sistema educativo, la deserción.

1.1.5 Problema a resolver


En base al estudio realizado, se ha podido identificar que, tomando como muestra los
resultados académicos obtenidos para el nivel secundario en los años lectivos intervalo 2018-
2021, el índice de crecimiento anual de las desaprobaciones en la I.E.P. Santiago Antúnez
de Mayolo asciende en un 24,51% anual. Este fenómeno ha emergido como el desafío
primordial que enfrenta la institución. Por consiguiente, el propósito fundamental del
presente estudio radica en contribuir con la reducción de esta problemática. Para lograr este
objetivo, tanto a nivel de la institución objetivo como a nivel general, es necesario abordar
las causas subyacentes que han dado lugar a esta tendencia preocupante las cuales son:

• Desconocimiento de la institución sobre los factores que afectan negativamente el


rendimiento de su alumnado
• Desconocimiento de la institución sobre los casos de riesgo de reprobación de su
alumnado

Dichas causas constituyen los pilares fundamentales sobre los cuales se enfocará el
presente estudio con la finalidad de proporcionar soluciones efectivas que permitan
contrarrestar la problemática en mención.

1.2 Definición de la Solución


A continuación, se detalla la definición de la solución propuesta en el presente
estudio, indicando los objetivos, indicadores de éxito, factibilidad y la propuesta preliminar
de la solución.

1.2.1 Objetivos del Proyecto


En esta sección se detallan los objetivos del proyecto, el general y los específicos.

29
1.2.1.1 Objetivo General
Desarrollar un sistema web para predecir estudiantes en riesgo académico basado en
Algoritmos Bayesianos en centros de estudio de nivel secundario en Lima Metropolitana
para contribuir con la disminución del índice de reprobación estudiantil a nivel institucional.

1.2.1.2 Objetivos Específicos


SG01. Analizar la problemática de la reprobación estudiantil en la institución en estudio e
identificar sus factores más influyentes y soluciones predictivas basadas en Machine
Learning en un periodo de tiempo no mayor a 3 meses.

SG02. Diseñar una aplicación web predictiva basada en un modelo de Machine Learning
para predecir estudiantes en riesgo académico en un plazo no mayor a 4 meses.

SG03. Construir y probar la aplicación web predictiva para garantizar su correcto


funcionamiento logrando un índice de defectos nulo para las funcionalidades clave
al finalizar cada Sprint.

SG04. Validar el correcto funcionamiento de la aplicación predictiva logrando identificar,


con una eficacia y exactitud mayores al 95%, a los estudiantes de la institución que
se encuentren en riesgo académico al finalizar el proyecto.

1.2.2 Indicadores de Éxito


A continuación, se detallan los indicadores de éxito del proyecto por cada objetivo
específico:

Tabla 4
Indicadores de éxito del proyecto

Indicador de éxito Métricas Objetivo


1 • Conformidad por parte • Acta por parte del área usuaria SG01
de la institución sobre el con grado de conformidad
análisis de la situación mayor a 4 considerando un
actual del negocio rango del 0 al 5.
• Relevancia en la Donde:
investigación de - 0: Totalmente disconforme
artículos científicos - 5: Totalmente conforme
relacionados a factores • Cantidad de artículos
influyentes en el analizados pertenecientes al Q1
rendimiento académico y mayor a 8 (Ver ecuación 1)
técnicas predictivas

30
basadas en Machine Ecuación 1
Learning
• Cumplimiento del plazo Cantidad de Artículos Analizados
establecido en el 𝐴𝑟𝑡𝐴𝑛𝑎𝑙𝑖𝑧𝑄1
cronograma × 100% > 40%
𝑇𝑜𝑡𝐴𝑟𝑡𝐴𝑛𝑎𝑙𝑖𝑧 ∗

Donde:
- 𝐴𝑟𝑡𝐴𝑛𝑎𝑙𝑖𝑧𝑄1 : Cantidad de
artículos analizados
pertenecientes al Q1
- 𝑇𝑜𝑡𝐴𝑟𝑡𝐴𝑛𝑎𝑙𝑖𝑧𝑄1 : Cantidad
total de artículos analizados

*Considerando como total de


artículos analizados a un total de
20 artículos

• Culminar el análisis de artículos


(Estado del Arte) antes o en la
fecha establecida en el
cronograma de actividades.
2 • Conformidad de la • Acta por parte del área usuaria y SG02
arquitectura del proyecto especialista TI con grado de
por parte del área usuaria conformidad mayor a 4
y especialista TI considerando un rango del 0 al
• Cumplimiento del plazo 5.
establecido en el Donde:
cronograma - 0: Totalmente disconforme
- 5: Totalmente conforme
• Culminación y aprobación de la
arquitectura base antes o en la
fecha establecida en el
cronograma de actividades.
3 • Conformidad por parte • Acta por parte del área usuaria SG03
del área usuaria por cada con grado de conformidad
entregable de Sprint mayor a 4 considerando un
• Cumplimiento de los rango del 0 al 5.
criterios de aceptación Donde:
por HU del Sprint - 0: Totalmente disconforme
- 5: Totalmente conforme
• Índice de defectos igual a 0%
posterior a la ejecución de las
pruebas por Sprint
(Ver ecuación 2)

31
Ecuación 2
Índice de defectos
𝑃𝑟𝑢𝑒𝑏𝐹𝑎𝑙𝑙𝑎
× 100% = 0%
𝑇𝑜𝑡𝑃𝑟𝑢𝑒𝑏

Donde:

- 𝑃𝑟𝑢𝑒𝑏𝐹𝑎𝑙𝑙𝑎 : Cantidad de
pruebas fallidas realizadas
- 𝑇𝑜𝑡𝑃𝑟𝑢𝑒𝑏 : Cantidad total de
pruebas realizadas

4 • Conformidad por parte • Acta por parte del PO con grado SG04
del PO a la entrega final de conformidad mayor a 4
del proyecto considerando un rango del 0 al
• Alto nivel de eficacia 5.
predictiva Donde:
• Alto nivel de exactitud - 0: Totalmente disconforme
predictiva - 5: Totalmente conforme
• Eficacia (Ver ecuación 3)
mayor a 95% con respecto al
nivel predictivo de la
aplicación.

Ecuación 3

Eficacia
𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠𝑃𝑟𝑒𝑑𝑖𝑐ℎ𝑜𝑠
𝐸𝑓𝑖𝑐𝑎𝑐𝑖𝑎 = × 100%
𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠𝑅𝑒𝑎𝑙𝑒𝑠

• Exactitud (Ver ecuación 4)


mayor a 95% con respecto al
nivel predictivo de la
aplicación.

Ecuación 4
Exactitud
𝑇𝑃 + 𝑇𝑁
𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 =
𝑇𝑃 + 𝐹𝑁 + 𝑇𝑁 + 𝐹𝑃
Donde:
• Verdaderos Positivos (TP):
Número de instancias
positivas clasificadas
correctamente como positivas

32
• Falsos Positivos (FP):
Número de instancias
negativas clasificadas
incorrectamente como
positivas
• Verdaderos Negativos
(TN): Número de instancias
negativas clasificadas
correctamente como
negativas
• Falsos Negativos (FN):
Número de instancias
positivas clasificadas
incorrectamente como
negativas

1.2.3 Factibilidad del Proyecto


En esta sección se detalla cuan factible es llevar a cabo la implementación del
presente proyecto.

1.2.3.1 Factibilidad Económica


Con la finalidad de conocer si es factible económicamente llevar a cabo el presente
proyecto, ha sido necesario realizar una evaluación financiera de los costos de la propuesta
del proyecto a implementar, contrarrestando ello con los beneficios que se generarán
posterior a su implementación.

Con la implementación del proyecto, las instituciones de nivel secundario podrán


identificar con una exactitud y eficacia mayores a 95% a los estudiantes en riesgo académico,
lo que les permitirá tomar acciones preventivas para evitar su reprobación. Esta medida
permitirá aumentar la cantidad de matrículas en la institución para los próximos años lectivos
debido a que, al mejorar la calidad educativa y el apoyo brindado a los estudiantes, la
institución que implemente el proyecto ganará una reputación más sólida en la comunidad
educativa local.

Padres y estudiantes potenciales valorarán la dedicación de la institución para


garantizar el éxito de cada estudiante, lo que a su vez aumentará la confianza en la calidad
de la educación ofrecida. Como resultado, la institución educativa se convertirá en una

33
opción más atractiva para las familias que buscan un centro de estudios comprometido con
el éxito académico de sus estudiantes.

Para hallar cifras que cuantifiquen la factibilidad del proyecto, se realizó la gestión
del costo, la cual se detalla en el punto 5.1.3. En dicha sección, se especifican los costos
asociados a la implementación del proyecto los cuales corresponden a un total de
S/65,408.63, no obstante, de manera adicional se tendrán que considerar dos egresos fijos
posterior a su implementación, los cuales son los servicios de Azure y el soporte técnico.
Para efectos de cálculos, se definirán dichos montos de manera anual como se muestra a
continuación:

Tabla 5

Detalle de egresos posterior a la implementación del proyecto


DETALLE DE EGRESOS POSTERIOR A LA IMPLEMENTACIÓN DEL
PROYECTO
Tipo de Egreso Costo Anual
Servicios Azure S/ 34,659.12
Soporte Técnico S/ 15,996.00
Total Egreso Anual: S/ 50,655.12

Nota. La tabla muestra el detalle de egresos estimado posterior a la implementación del


proyecto.

El costo mensual para el soporte técnico de TI se basa en los salarios actuales del
mercado, que oscilan los S/ 1,333 mensuales (Ver anexo 18). Para el presente proyecto se
contempla la contratación de un profesional de soporte técnico que esté disponibles los 12
meses del año, lo que suma un egreso total de S/ 15,996.00 anual para el concepto de Soporte
Técnico.

Como se mencionó anteriormente, el principal beneficio económico del proyecto está


ligado al aumento de la cantidad de matrículas, por ende, la cantidad de pensiones por
estudiante de la institución que implemente el proyecto. Para poder cuantificar los beneficios
se tomarán como referencia datos económicos correspondientes a la institución objetivo del
presente estudio, la cual es la I.E.P. Santiago Antúnez de Mayolo.

Tabla 6

Detalle de ingresos

34
DETALLE DE INGRESOS DE LA INSTITUCIÓN
Sin proyecto Con Proyecto Lo que genera el proyecto
anual
Matrículas para el nivel secundario
Cantidad (pago único 4,363 4,390 27
anual)
Precio unitario en S/ S/ 235.00 S/ 235.00 S/ 235.00
Precio total en S/ S/ 1,025,305.00 S/ 1,031,650.00 S/ 6,345.00
Pensiones mensuales para el nivel secundario
Cantidad (10 pensiones 43,630 43,900 270
anual)
Precio unitario en S/ S/ 340.00 S/ 340.00 S/ 340.00
Precio total en S/ S/ 14,834,200.00 S/ 14,926,000.00 S/ 91,800.00
Total en S/ S 15,859,505.00 S/ 15,957,650.00 S/ 98,145.00

Nota. La tabla muestra la comparación de ingresos estimados para la institución sin y con la
implementación del proyecto.

Se conoce que la cantidad de matrículas en la institución para el nivel secundario en


el intervalo 2018-2021 fue de 4363 estudiantes y el precio vigente de cada una de ellas es de
S/ 235.00 y se mantendrá así hasta el año 2030. Además, se conoce que, por estudiante, la
pensión en el nivel secundario tiene un valor anual de S/ 3,400.00 que se divide en 10 pagos
de S/ 340.00 cada uno a lo largo del año lectivo. En base a la información de la Tabla 1, se
puede apreciar que la cantidad de matrículas para el nivel secundario tiene una tendencia a
la baja para el intervalo 2018-2021, disminuyendo de 1191 a 1023 en solo 3 años, lo que
equivale a la disminución del 14,1% de matrículas. Como se puede observar en la Tabla 2,
esta tendencia es directamente proporcional a las desaprobaciones, las cuales aumentaron de
93 a 205 en el mismo periodo, lo cual corresponde a un aumento del 120,4% de
reprobaciones, lo que evidencia la estrecha relación causa-efecto de la desaprobación de los
estudiantes con la disminución de matrículas.

En base a la información de la Tabla 2, observamos que, sin la implementación del


proyecto, en el intervalo 2018-2021 la institución obtuvo un total de 537 estudiantes
reprobados de un total de 4,363, con un promedio aproximado de 134 estudiantes reprobados
por cada año comprendido en el periodo indicado, lo cual equivale a un aproximado de 12%
de estudiantes reprobados por año.

35
Con la implementación del presente proyecto, se espera predecir mínimo el 95% de
estudiantes en riego académico, lo cual influirá positivamente para evitar su reprobación. Si
solo se evitara la reprobación del 15% de los estudiantes predichos como riego académico,
se tendría que por año se retendrían al menos 15% de los estudiantes matriculados. Esto se
traduce como el 15% de 134 estudiantes matriculados por año, lo cual equivale a
aproximadamente 20 estudiantes y a su vez representa un aproximado del 2% de estudiantes
reprobados por año.

Esto se puede traducir en que el proyecto retendrá anualmente 27 estudiantes que se


retiran por reprobación, lo cual equivale en cifras monetarias a S/ 6,345.00 de ingresos por
matrículas y S/ 91,800.00 de ingresos por pensiones, lo cual da un total de S/ 98,145.00 de
ingresos anuales por estudiante.

Para corroborar que el proyecto sea rentable se realizó un flujo de caja neto
proyectado a 5 años de implementado el mismo. Se puede apreciar que, al segundo año
posterior a su implementación, se recupera el total de la inversión inicial de este generando
los primeros ingresos para la institución. Adicionalmente, se evidencia que es factible y
rentable su implementación al obtener un TIR de 67.02% y un valor actual neto del proyecto
(VAN) que asciende hasta llegar a S/ 172,040.77 al 5to año de implementado el proyecto.
Dicha información está resumida en la Tabla 7.

36
Tabla 7

Flujo de Caja Neto del Proyecto

ANÁLISIS FINANCIERO DEL PROYECTO

CONCEPTOS / PERIODO Año 0 Año 1 Año 2 Año 3 Año 4 Año 5


A.- INGRESOS TOTALES - 98,145.00 98,145.00 98,145.00 98,145.00 98,145.00
Matrículas anuales - 6,345.00 6,345.00 6,345.00 6,345.00 6,345.00
Pensiones anuales - 91,800.00 91,800.00 91,800.00 91,800.00 91,800.00

B.- EGRESOS TOTALES 65,408.63 50,655.12 50,655.12 50,655.12 50,655.12 50,655.12


Egresos por Recurso Humano 49,957.25 - - - - -
Egresos por Recurso 8,664.78 - - - - -
Tecnológico
Reserva de Contingencia 3,568.40 - - - - -
Reserva de Gestión 3,218.20 - - - - -
Soporte Técnico (anual) - 15,996.00 15,996.00 15,996.00 15,996.00 15,996.00
Servicios Azure (anual) - 34,659.12 34,659.12 34,659.12 34,659.12 34,659.12

C.- FLUJO DE CAJA NETO -65,408.63 47,489.88 47,489.88 47,489.88 47,489.88 47,489.88

D.- FLUJO DE CAJA -65,408.63 -17,918.75 29,571.13 77,061.01 124,550.89 172,040.77


ACUMULADO

CONTINUIDAD Y SOSTENIBILIDAD DEL PROYECTO


Valor Actual Neto (VAN) S/ 172,040.77
Tasa Interna de Retorno (TIR) 67,02%

37
1.2.3.2 Factibilidad Técnica
Para determinar la factibilidad técnica se establecerán los recursos necesarios para la
implementación del proyecto para completarlo satisfactoriamente.

Lenguaje de Desarrollo: Para escoger el lenguaje de desarrollo debe considerarse las


siguientes características:
- Fácil de entender
- Orientado a objetos
- Multiplataforma
Las características mencionadas se asemejan al lenguaje de programación C#
(Microsoft, 2022a).

Sistema Gestor de Base de Datos: El sistema gestor de base datos debe cumplir con las
siguientes características:
- Plataforma segura
- Rendimiento
- Estable
- Soporte de grandes cantidades de información
- Respuesta rápida
El gestor de Base de datos que cumple con estas condiciones es SQL Server 2022
(Microsoft, 2022b).

Equipo de Desarrollo: Según Microsoft (2022c) el personal que llevará a cabo la


aplicación web tiene las siguientes características:
- Conocimiento en lenguajes de programación C# y Java.
- Manejo del motor de base de datos SQL Server 2022.
- Conocimiento en diseño y arquitectura de sistemas.

Plataforma en la Nube: Para el despliegue de la aplicación en la nube se tienen los


siguientes servicios según Microsoft (2022d):

38
- App Service Plan: Es un conjunto de recursos que determina la capacidad de
procesamiento, la memoria y las características de red para las aplicaciones web
alojadas en Azure App Service (Microsoft, 2022e).

- Azure App Service: Es un servicio de plataforma como servicio (PaaS) de Azure que
permite a los desarrolladores crear, hospedar y escalar aplicaciones web de forma
rápida y sencilla (Microsoft, 2022f).

- Azure SQL Database: Es un servicio de base de datos relacional en la nube de Azure


que proporciona una base de datos gestionada y escalable para aplicaciones
(Microsoft, 2022g).

- Azure API Management: Es un servicio de Azure que permite a las organizaciones


publicar, proteger, administrar y analizar sus APIs de forma segura y a escala
(Microsoft, 2022h).

- Azure Monitor: Es un servicio de Azure que proporciona una plataforma unificada


para la supervisión, la recopilación de datos de telemetría y el análisis de aplicaciones
y recursos en la nube (Microsoft, 2022i).

- Azure Active Directory: Es un servicio de gestión de identidades basado en la nube


de Azure que proporciona autenticación y control de acceso para aplicaciones y
servicios en la nube (Microsoft, 2022j).

- Azure DNS: Es un servicio de Azure que proporciona un sistema de nombres de


dominio (DNS) en la nube para la resolución de nombres de dominio (Microsoft,
2022k).

- Azure Key Vault: Es un servicio de Azure que proporciona un almacén seguro y


centralizado para claves, secretos y certificados, utilizado para proteger y gestionar
el acceso a los datos sensibles de una aplicación (Microsoft, 2022l).

39
- Algoritmo Machine Learning: Según Microsoft (2022m), las técnicas de ML son
las más adecuadas para proyectos de naturaleza predictiva. Para escoger el mejor
algoritmo predictivo de aprendizaje automático nos basamos en estudios realizados
por otros autores relacionados a la predicción de estudiantes en riesgo. A
continuación, se presenta un breve Benchmarking de los estudios más resaltantes:

Tabla 8

Benchmarking de estudios asociados a la predicción académica


Objetivo Algoritmo Resultados
Predecir el
Abdulla rendimiento de Extreme Machine
Learning Eficacia: 69,5%
(2020) estudiantes de nivel
superior (Arabia)
Predecir el
rendimiento de los
Ghorbani y estudiantes Regresión Eficacia: 77,7%
Ghousi (2020) universitarios Logística
mediante técnicas de
ML (Irán)
Predecir el
rendimiento de
Deo et al.
estudiantes de Random Forest Eficacia: 78,4%
(2020)
pregrado basado en IA
(Australia)
Predecir el
rendimiento de los
Alshanqiti y
estudiantes y sus
Namoun Redes Neuronales Eficacia: 81,4%
factores influyentes
(2020)
mediante el uso de ML
(Arabia)
Predecir el
Castrillón et
rendimiento Naïve Bayes Eficacia: 91,7%
al. (2020)
académico superior

40
mediante técnicas de
IA (Colombia)
Predecir el
rendimiento de
Pekuwali estudiantes de nivel
Naïve Bayes Eficacia: 92,5%
(2020) superior utilizando el
algoritmo Naïve Bayes
(Indonesia)

Nota. La tabla muestra los valores más altos de eficacia obtenidos por autor con su
respectivo estudio y técnica utilizada.

En base a los resultados del Benchmarking de la Tabla 8, podemos deducir


que el algoritmo Naïve Bayes, es el que ha generado una mayor eficacia en sus
resultados, razón por la cual será utilizado como base en el presente estudio.
Así como los autores mencionados en la Tabla 8, muchos más nos confirman
que sí es posible predecir a los estudiantes en riesgo mediante el uso de los algoritmos
propuestos en el presente estudio, los cuales son los bayesianos, razón por la cual
nuestra propuesta es factible.
En la actualidad, la I.E.P. Santiago Antúnez de Mayolo no posee sistemas
implementados, por lo tanto, no existirá ningún tipo de conflicto al implementar la
solución propuesta, cuya arquitectura se detalla en el punto 3.2.

1.2.4 Propuesta preliminar de la solución


Para dar solución a la problemática en estudio se ha planteado el desarrollo de un
sistema Web predictivo de estudiantes en riesgo académico, basado en un modelo de
algoritmos bayesianos que consta de 4 componentes: Datos, Patrones de Datos, Técnicas
Predictivas y Métricas de Validación.

El primer componente contempla la obtención y clasificación de los datos (inputs)


del modelo. El segundo componente consiste en procesar los datos para identificar los
patrones conocidos que faciliten el entrenamiento del modelo mediante el proceso KDD. El
tercer componente contempla la técnica predictiva para llevar a cabo la predicción del riesgo

41
escolar la cual se basa en el uso de algoritmos bayesianos. Por último, el cuarto componente
contempla las métricas de validación necesarias para garantizar la eficacia del modelo, las
cuales son la eficacia y exactitud de los resultados (outputs). A continuación, se muestra el
modelo propuesto:

Figura 3

Propuesta de Modelo predictivo de riesgo escolar basado en algoritmos bayesianos

Nota. Diagrama que resume los componentes del modelo predictivo de riesgo académico
propuesto.

Componentes del modelo propuesto

Componente 1: Datos. Este primer componente contempla la obtención y clasificación de


los datos necesarios para el entrenamiento del modelo. Para obtener dichos datos se hace uso
de un sistema web mediante el cual, los estudiantes responden encuestas con preguntas de
selección orientada a los principales factores influyentes en la reprobación estudiantil. Para
clasificar los datos recopilados, se realiza un agrupamiento considerando 4 grandes factores,
tomando como base los estudios de Hernández-Jácquez y Montes-Ramos (2020) y Castrillón
et al. (2020), los cuales se muestran en la Figura 4:

42
Figura 4

Factores influyentes en la reprobación estudiantil

Nota. Elaborado a partir de “Modelo predictivo del riesgo de abandono escolar en educación
media superior en México”, por Hernández-Jácquez & Montes-Ramos, 2020,
(https://doi.org/10.29059/cienciauat.v15i1.1349).

Una vez recopilados y clasificados los datos, estos ingresan a una etapa de
procesamiento para extraer información a partir de ellos, dicho proceso se contempla en el
siguiente componente.

Componente 2: Patrones de datos. En este componente se realiza la extracción del


conocimiento, identificando los patrones de datos conocidos para establecer las variables del
modelo. Para ello, es necesario aplicar el proceso KDD detallado en el Estado del Arte del
proyecto ubicado en el punto 2.3.

A continuación, se detallan los pasos para la extracción del conocimiento a seguir para la
implementación del modelo predictivo:

• Selección y limpieza de datos: En este paso se realiza el filtro de los datos con mayor
relevancia y se desechan aquellos que no brindan valor al estudio. Únicamente se deben
mantener los datos relacionados a los factores influyentes contemplados en el
Componente 1.

43
• Pre-procesamiento de datos: En este paso se procesan por primera vez los datos, se
establecen las variables del modelo y se clasifican en base a los factores definidos. Para
dicha clasificación, se contemplan las siguientes variables por factor:

Tabla 9

Clasificación y definición de variables


Clasificación Nombre Descripción
Factores familiares (F1) Ocup_padre Padre trabaja
Ocup_madre Madre trabaja
Term_padr_escolar Padre terminó la escuela
Term_madr_escolar Madre terminó la escuela
Probl_casa Tiene problemas en casa
Factores sociales (F2) Estud_solo Estudia solo
Act_deport Realiza deporte
Progr_ve Ve programas de TV
Frec_cel Frecuencia en el celular
Factores económicos (F3) Ingr_familiares Ingresos familiares
Factores académicos (F4) Rep_anio_ant Repitió el año anterior
Prom_fin_anio_ant Promedio del año anterior
Frec_estudio Frecuencia de estudios
Acc_ayuda Recibió acciones de ayuda
Efec_ayuda Fueron efectivas las acciones
de ayuda

Nota. La tabla muestra las variables establecidas por cada factor influyente en el riesgo
académico detallado en la figura 4.

• Transformación de datos: Aquí los datos son transformados y consolidados en un


modelo de datos relacional para proceder a minarlos.
• Minería de Datos: En esta etapa los métodos inteligentes son aplicados para extraer
patrones a partir de los datos. Para ello, se hace uso del algoritmo clasificador Naïve
Bayes recomendado en el estudio de Rico et al. (2019), el cual está basado en el estudio
de probabilidades y el Teorema de Bayes (Ecuación 5)

44
Ecuación 5

Teorema de Bayes
𝑃(𝐶𝑖 |𝐴1 , … , 𝐴𝑛 ) = [𝑃(𝐴1 , … , 𝐴𝑛 |𝐶𝑖 )𝑃(𝐶𝑖 )]/𝑃(𝐴1 , … , 𝐴𝑛 )

Dónde:

• {𝐴1 , . . . , 𝐴𝑛 } es el conjunto de atributos


• 𝐶𝑖 es la variable de clase
• 𝑃 es la probabilidad

Producto de su aplicación, se obtienen las combinaciones probabilísticas en base a


las variables definidas para el estudio.

• Identificación de Patrones: Aquí se realiza la identificación de los patrones extraídos


producto del minado de datos para entrenar a los algoritmos y realizar predicciones.
• Presentación del Conocimiento: Como último paso, se presenta el conocimiento
extraído. Para ello, se consolidan los datos generados a partir de los patrones y
combinaciones probabilísticas como una nueva entidad en un modelo de datos relacional
para poder utilizarlos para el entrenamiento del modelo predictivo de riesgo estudiantil.

Componente 3: Técnica Predictiva. Este componente contempla el entrenamiento


de los algoritmos y la predicción. Para ello, se hace uso del conocimiento extraído en el
Componente 2 y de los algoritmos bayesianos. Estos algoritmos clasificadores se basan en
el estudio de la probabilidad y son los más indicados para realizar predicciones en un
conjunto finito de resultados posibles, como predecir el riesgo escolar, lo cual se representa
como un booleano (0: No está en riesgo, 1: Está en riesgo)

Para entrenar este tipo de algoritmos se hace uso de la clase


NaiveBayesMulticlassTrainer de la librería ML.NET. Dicha clase recibe como input el
patrón de datos y las combinaciones probabilísticas identificadas por variable en estudio en
el Componente 2, las cuales se encuentran almacenadas en una entidad relacional. El proceso
de entrenamiento se puede resumir en la Figura 5:

45
Figura 5

Proceso de entrenamiento de los algoritmos bayesianos

Nota. Diagrama que resume el proceso de entrenamiento del modelo propuesto.

Posterior al entrenamiento, los algoritmos ya han adquirido el conocimiento


necesario para poder realizar una predicción. Para realizarlo, se reciben como input los datos
recopilados en el Componente 2 y devuelve como resultado el listado de estudiantes en
riesgo de reprobación junto al score predictivo del modelo por cada ejecución. El proceso de
predicción se puede resumir en la Figura 6:

Figura 6
Proceso de predicción de los algoritmos bayesianos

Nota. Diagrama que resume el proceso de predicción del modelo propuesto.

Componente 4: Métricas de Validación. Finalmente, en este componente se valida


la eficacia predictiva obtenida por el modelo. Para ello, se toman en cuenta las métricas de
eficacia y exactitud de los resultados.

46
Para conocer los niveles de eficacia y exactitud de un modelo predictivo basado en
algoritmos bayesianos, se debe tener en cuenta que los algoritmos clasificadores poseen 4
tipos de valores resultantes mediante los cuales se calculan dichas métricas y son los
siguientes:

Tabla 10

Valores resultantes de la predicción de algoritmos clasificadores

Nombre Descripción
Verdaderos Positivos (TP) Número de instancias positivas clasificadas
correctamente como positivas
Falsos Positivos (FP) Número de instancias negativas clasificadas
incorrectamente como positivas
Verdaderos Negativos (TN) Número de instancias negativas clasificadas
correctamente como negativas
Falsos Negativos (FN) Número de instancias positivas clasificadas
incorrectamente como negativas

Nota. Adaptado de “Using Data Mining Techniques to Predict Student Performance to


Support Decision Making in University Admission Systems”, por Abdulla, 2020,
(https://doi.org/10.1109/ACCESS.2020.2981905).

A continuación, se detallan las métricas para la validación del modelo predictivo:

Eficacia: Se refiere a la capacidad del modelo para hacer predicciones correctas sobre datos
futuros o no observados, para calcularla es necesario aplicar la ecuación 3.

Exactitud: La exactitud indica cuán cerca se encuentra el valor predicho al valor real y para
calcularla es necesario aplicar la ecuación 4 tomando en cuenta los valores de la Tabla
precedente.

Adicionalmente, al ser un modelo predictivo orientado al riesgo estudiantil, se


considerarán las siguientes métricas, las cuales deben estar orientadas a la institución
seleccionada para la implementación del proyecto:

Porcentaje de alumnos en riesgo aprobados: Este indicador representa el


porcentaje de estudiantes que fueron identificados como riesgo al inicio del año lectivo pero

47
finalmente lograron aprobar de manera satisfactoria. A continuación, se presenta la ecuación
correspodiente:

Ecuación 6
Porcentaje de alumnos en riesgo aprobados
(𝐴𝑙𝑢𝑚𝑛𝑜𝑠𝑅𝑖𝑒𝑠𝑔𝑜 − 𝐴𝑙𝑢𝑚𝑛𝑜𝑠𝑅𝑒𝑝𝑟𝑜𝑏𝑎𝑑𝑜𝑠) × 100%
%=
𝐴𝑙𝑢𝑚𝑛𝑜𝑠𝑅𝑖𝑒𝑠𝑔𝑜

Diferencia entre índices de reprobación: Este indicador representa la diferencia


entre los índices de reprobación de la institución, antes y después de implementado el
proyecto. A continuación, se presenta la ecuación correspodiente:

Ecuación 7

Diferencia entre índices de reprobación

𝐷𝑖𝑓𝐼𝑛𝑑𝑅𝑒𝑝 = 𝐼𝑛𝑑𝑅𝑒𝑝𝐴𝑛𝑡 − 𝐼𝑛𝑑𝑅𝑒𝑝𝐷𝑒𝑠𝑝

Validación

Para llevar a cabo el proceso de validación se considerará una fase por cada componente del
modelo propuesto en la Figura 3. Dichas fases se muestran en la siguiente figura:

Figura 7
Fases para la validación del modelo propuesto

Nota. Diagrama que resume las fases de validación del modelo propuesto.

Fase 1: Selección de población y muestra para el estudio. Para recopilar los datos
necesarios para la validación del modelo se implementará un sistema web mediante el cual
los estudiantes responden encuestas en conjunto del padre, madre de familia o apoderado.

Cada una de las encuestas contiene preguntas orientadas a los factores de la Figura
4, tal como se muestra en la Tabla 11.

48
Tabla 11

Valores de la encuesta a estudiantes

Factor Pregunta relacionada Campo que


almacena el valor
Factores familiares ¿Padre trabaja? Ocup_padre
(F1) ¿Madre trabaja? Ocup_madre
¿Padre terminó la escuela? Term_padr_escolar
¿Madre terminó la escuela? Term_madr_escolar
¿Tiene problemas en casa? Probl_casa
Factores sociales (F2) ¿Estudia solo? Estud_solo
¿Realiza deporte? Act_deport
¿Ve programas de TV que no Progr_ve
aportan a su estudio?
¿Usa con frecuencia el celular? Frec_cel
Factores económicos ¿Cuál es el rango de sus ingresos Ingr_familiares
(F3) familiares?
Factores académicos ¿Repitió el año anterior? Rep_anio_ant
(F4) ¿Cuál fue su promedio del año Prom_fin_anio_ant
anterior?
¿Estudia con frecuencia? Frec_estudio
¿Recibió alguna acción de ayuda Acc_ayuda
estudiantil?
¿Considera que las acciones de Efec_ayuda
ayuda estudiantil que ha recibido
han sido efectivas en su progreso
académico?

Nota. La tabla muestra las preguntas definidas por cada variable establecida en la tabla 9.

Las respuestas obtenidas son almacenadas en un modelo de datos relacional para


posteriormente ser consultadas desde el sistema.

49
Fase 2: Procesamiento de datos. Para realizar el procesamiento de la data recopilada
se hace uso del proceso KDD siguiendo los pasos indicados en el Componente 2. La
información se clasifica de acuerdo con las variables de la Tabla 11 y la presentación del
conocimiento extraído se almacena en un script de probabilidades en lenguaje SQL con las
combinaciones probabilísticas obtenidas para poder realizar el entrenamiento del modelo
predictivo de riesgo estudiantil. Para ello, se consolida la información en la tabla
EntrenamientoML del modelo relacional implementado.

Fase 3: Ejecución y predicción. Para realizar la ejecución del modelo predictivo es


necesario realizar previamente su entrenamiento tal como se indica en el Componente 3 del
modelo propuesto. Para ello, se usan los datos probabilísticos almacenados en la tabla
EntrenamientoML en sistema numérico binario, es decir, en ceros y unos. El modelo
accederá a dichos datos mediante la clase NaiveBayesMulticlassTrainer de la librería
ML.NET, la cual recibe las características binarias probabilísticas y genera el aprendizaje de
los algoritmos bayesianos en base al patrón de datos identificado en el dataSet. Una vez
culminado el entrenamiento, los algoritmos del modelo ya tendrán el conocimiento necesario
para realizar una predicción.

Para poder ejecutar las predicciones se creará una API que contendrá al modelo
predictivo, esta recibe en formato json los datos recopilados en el Componente 1 mediante
las encuestas realizadas a los estudiantes a través del Sistema Web y devuelve como
resultado el listado de estudiantes en riesgo de reprobación junto a su score predictivo. Su
funcionamiento se resume en la Figura 8.

50
Figura 8
Funcionamiento de API basada en algoritmos bayesianos para Predecir el Riesgo
Estudiantil

Nota. Diagrama que resume el funcionamiento del API predictiva del modelo propuesto.

Fase 4: Aplicación de métricas de calidad. Para validar la calidad predictiva del


modelo se hará uso de las métricas establecidas en el Componente 4 del modelo propuesto.

Para para poder aplicar dichas métricas se tiene como pre-requisito haber efectuado
al menos una predicción. Una vez efectuada la predicción, los resultados deben ser
clasificados en base a los criterios de la Tabla 10, posteriormente se procede a reemplazar
los valores obtenidos para cada criterio para el cálculo de las métricas respectivas.

CAPÍTULO II – MARCO TEÓRICO


En el presente capítulo se detallará el marco teórico relacionado al negocio de la
empresa objetivo y a las tecnologías facilitadoras para la realización del proyecto, con la
finalidad de entender profundamente los conceptos relacionados desde su etapa de análisis
hasta su implementación.

51
2.1 Marco Teórico relacionado al negocio
Educación

A nivel Global:

La educación juega un papel crucial en el desarrollo humano, inclusivo y sostenible


al permitir que las sociedades del conocimiento puedan enfrentar los desafíos del futuro
mediante estrategias innovadoras (Organización de las Naciones Unidas para la Educación,
la Ciencia y la Cultura [UNESCO], s.f.). A medida que el mundo ha evolucionado, el sistema
educativo también ha evolucionado incorporando nuevas modalidades de enseñanza basadas
en la tecnología y herramientas actuales para mejorar el proceso educativo.

Figura 9

Evolución de la educación

Nota. La figura muestra la evolución de la educación. De “Evolución de la educación


superior a distancia: desafíos y oportunidades para su gestión”, por Yong et al., 2017,
(https://revistavirtual.ucn.edu.co/index.php/RevistaUCN/article/view/814).

En la Figura 9, se puede observar a detalle la evolución de la educación, la cual ha


desencadenado una serie de generaciones que abarcan diferentes herramientas, las cuales
constituyen una nueva modalidad que busca facilitar el sistema de enseñanza a nivel
mundial.

52
Figura 10

Digitalización educativa en Latinoamérica

Nota. La figura muestra la digitalización educativa en Latinoamérica. De “¿Qué tan


preparada está América Latina para la educación digital?”, por Statista, 2018,
(https://es.statista.com/grafico/22645/la-digitalizacion-educativa-en-latinoamerica/).

Hasta el año 2018, diversos países de Latinoamérica se encontraban integrando arduamente


la “Cuarta Generación” de la educación, debido a que, las condiciones tecnológicas de los
habitantes de dichos países no estaban preparadas para soportar el avance de la digitalización
educativa (Statista, 2018), como se observa en la Figura 10.

Los efectos de la evolución en el sistema educativo se reflejan principalmente en los


resultados PISA, los cuales miden el rendimiento académico de los estudiantes a nivel global
en las materias de matemáticas, ciencia y lectura. Hasta el 2018, China ha encabezado estos
resultados (MINEDU, 2018).

Esto nos hace reflexionar acerca del modelo educativo que tenemos en nuestro país, dado
que, las cifras no son muy alentadoras y la enseñanza para esta generación será todo un
desafío para el sector educativo en el Perú.

A nivel Nacional:

Según RPP Noticias (2019), basado en datos del Foro Económico Mundial, el Perú
ocupó el puesto 63 en competitividad mundial en cuanto a la calidad del sistema educativo

53
en 2018, sin embargo, en el 2019, bajó dos puestos llegando al 65. Como se ilustra en la
Figura 11.

Figura 11
Ubicación de principales países Latinoamericanos en el índice de competitividad mundial,
2018 - 2019

Nota. La figura muestra la ubicación de los principales países latinoamericanos en el índice


de competitividad mundial, 2018 - 2019. De “Perú sigue perdiendo competitividad y cae dos
posiciones en ranking global”, por RPP Noticias, 2019,
(https://rpp.pe/economia/economia/peru-sigue-perdiendo-competitividad-y-cae-dos-
posiciones-en-ranking-global-economia-foro-economico-mundial-wef-noticia-1223595).

Según la información proporcionada por el MINEDU y consignada en el informe de


resultados sobre las veedurías aplicadas a 25 regiones del país, que se observa en la Figura
12, se puede deducir que, 3 de cada 10 alumnos en 17 regiones del Perú no obtuvieron la
nota mínima aprobatoria en el año lectivo 2020 en donde se incluye a Lima como región
afectada (Contraloría General de la República del Perú [CGR], 2021).

54
Figura 12

Resultados de veedurías escolares a estrategia "Aprendo en Casa"

Nota. La figura muestra los resultados de las veedurías escolares a estrategia "Aprendo en
Casa". De “N° 383-2021-CG-GCOC: Más del 32% de alumnos en 17 regiones no habría
obtenido resultados satisfactorios en 2020", por CGR, 2021,
(https://www.contraloria.gob.pe/wps/wcm/connect/cgrnew/as_contraloria/prensa/notas_de
_prensa/2021/lima/np_383-2021-cg-gcoc).

55
I.E.P. Santiago Antúnez de Mayolo

Una de las instituciones limeñas afectadas por la nueva generación educativa es la


I.E.P. Santiago Antúnez de Mayolo, la cual es una institución orientada a la educación de
nivel primario y secundario de niños y jóvenes del distrito de Ancón con el fin de potenciar
su aprendizaje y prepararlos para afrontar los nuevos desafíos que impone el sistema
educativo actual.

Esta institución, al igual que la mayoría de las instituciones de Latinoamérica, se ha


visto influenciada negativamente por la nueva generación educativa y está enfrentando un
notable aumento en su tasa de reprobación estudiantil.

Actualmente, la institución está realizando inversiones con respecto a la


implementación de nuevas tecnologías para acoplarlas a su sistema educativo, ya que, con
la nueva generación educativa, se ha vuelto una necesidad y el no contar con las herramientas
digitales necesarias provoca que muchos de sus estudiantes presenten dificultades en su
aprendizaje y que la competencia tome ventaja sobre la institución.

2.2 Marco Teórico relacionado a las tecnologías de información


Aprendizaje automático:

En 1959, Arthur Samuel, un experto estadounidense en inteligencia artificial, acuñó


el término "aprendizaje automático" (Samuel, 1959), que es una rama de la IA en la que los
humanos entrenan algoritmos para que puedan reconocer patrones conocidos en los datos y
hacer predicciones. Además, el aprendizaje automático se puede dividir en tres categorías
principales: supervisado, no supervisado y reforzado (Valdez, 2019), tal como se muestra en
la Figura 13.

56
Figura 13

Tipos de aprendizaje automático

Nota. La figura muestra los tipos de aprendizaje automático. De “Machine Learning para
Todos", por Valdez, 2019, (https://doi.org/10.13140/RG.2.2.13786.70086).

Aprendizaje Supervisado

El aprendizaje supervisado es un enfoque de aprendizaje automático en el cual una


computadora utiliza un conjunto de datos previamente etiquetados para aprender a asignar
etiquetas a datos nuevos. Es decir, el algoritmo es supervisado por el conjunto de datos de
ejemplo y se esfuerza por generalizar un patrón a partir de estos datos para poder asignar
etiquetas a nuevos datos (Páez, 2019).

Según Norvig y Russell (2004), en un ambiente de aprendizaje supervisado donde


todo es observable, el agente tiene la capacidad de ver los resultados de sus acciones y
utilizar esa información para predecir futuros resultados. Sin embargo, en entornos
parcialmente observables, el proceso de aprendizaje se vuelve más difícil ya que algunos
resultados pueden ser invisibles. Dentro de este grupo se encuentran los algoritmos
clasificadores, los cuales engloban a su vez a los algoritmos bayesianos, los cuales son la
base del presente estudio.

Algoritmos bayesianos

57
Según Pekuwali (2020), el algoritmo Naïve Bayes es considerado uno de los más
precisos y eficientes en el campo del aprendizaje automático, ya que se basa en la
probabilidad y el Teorema de Bayes. Estudios recientes, como el realizado por este autor,
han demostrado un alto porcentaje de exactitud en sus predicciones, con un 94,2%. Otros
autores como Rico et al. (2019), Castrillón et al. (2020), Lee et al. (2021), Cervera et al.
(2021) y Khan et al. (2021) también han utilizado dicho algoritmo en sus investigaciones y
han confirmado su efectividad.

Rico et al. (2019), en su estudio “Construction and implementation of a model to


predict the academic performance of university students using the Naïve Bayes algorithm”
obtuvo una eficacia de 70,4%, el cual es un valor relativamente alto con respecto al nivel
predictivo de un modelo, el cual supera al valor de eficacia obtenido por Abdulla (2020) en
su estudio haciendo uso del algoritmo Extreme Machine Learning (EML), el cual es 69,5%.

Por otro lado, Castrillón et al. (2020) en su estudio “Prediction of academic


performance through techniques of artificial intelligence” obtuvo una eficacia aún mayor, la
cual asciende a 91,7% gracias a estos algoritmos, la cual supera el máximo alcanzado por
los algoritmos de Regresión Logística (77,7%), Random Forest (78,4%) y las Redes
Neuronales (81,4%).

Sin embargo, es Khan et al. (2021) quien nos muestra la mayor eficacia alcanzada
por el algoritmo Naïve Bayes, la cual alcanza un 92,5% y se demuestra en su estudio “An
artificial intelligence approach to monitor student performance and devise preventive
measures” lo cual representa una gran ventaja frente a los demás algoritmos presentados.

En conclusión, los algoritmos bayesianos (Naïve Bayes) son los más indicados para
predecir el rendimiento estudiantil debido a su alto nivel de eficacia en los resultados
obtenidos y por ello son la base del presente estudio.

Este tipo de algoritmo trabaja bajo el esquema del modelo de aprendizaje supervisado, el
cual se muestra en la Figura 14.

58
Figura 14

Modelo de Aprendizaje Supervisado

Nota. La figura muestra el modelo de trabajo del aprendizaje supervisado. De “Machine


Learning para Todos", por Valdez, 2019, (https://doi.org/10.13140/RG.2.2.13786.70086).

Minería de datos educativa:

La minería de datos hace referencia al proceso de obtención de información valiosa


y comprensible a partir de grandes cantidades de datos almacenados en diferentes formatos
(Hernández-Orallo et al., 2004). Esta técnica está relacionada con el proceso más amplio de
Descubrimiento de Conocimiento en Bases de Datos (KDD, por sus siglas en inglés), y
requiere la combinación de habilidades en estadística, tecnología de bases de datos,
aprendizaje automático, reconocimiento de patrones, inteligencia artificial y visualización
(Hand et al., 2001). Según Han et al. (2012), el proceso de KDD consta de una secuencia
iterativa de 7 pasos, como se ilustra en la Figura 15.

Figura 15
La minería de datos como un paso en el proceso de descubrimiento de conocimiento

59
Nota. La figura muestra la minería de datos como un paso en el proceso de descubrimiento
de conocimiento. De “Data Mining: Concepts and Techniques", por Han et al., 2012,
(https://doi.org/10.1016/C2009-0-61819-5).

1. Limpieza de datos: En este paso se remueve el ruido y los datos inconsistentes.


2. Integración de Datos: Aquí múltiples orígenes de datos pueden combinarse.
3. Selección de Datos: En este paso se extraen desde las bases los datos necesarios para
llevar a cabo la tarea de análisis.
4. Transformación de datos: Aquí los datos se convierten o consolidan en un formato
adecuado para su análisis, ya sea mediante resúmenes o a través de operaciones de
agregación.
5. Minería de Datos: Es el proceso clave en el que se aplican métodos avanzados para
extraer patrones a partir de los datos.
6. Evaluación de los Patrones: Con el fin de reconocer los patrones relevantes que reflejan
conocimientos basados en métricas significativas.

60
7. Presentación del Conocimiento: En este paso se emplean técnicas de visualización y
representación del conocimiento para presentar la información extraída al usuario (Han
et al., 2012).

2.3 Estado del Arte


Para el análisis de trabajos relacionados, se realizó una revisión sistemática de la
literatura. Partiendo de 5 preguntas relacionadas a la siguiente taxonomía de investigación:

Modelos: ¿Qué modelos predictivos de riesgo de deserción o desaprobación


estudiantil existen? (Q1), Componentes: ¿Qué componentes tienen los modelos predictivos
de deserción o desaprobación estudiantil? (Q2), Tecnologías: ¿Qué tecnologías se pueden
utilizar para crear un modelo predictivo de deserción o desaprobación estudiantil? (Q3),
Algoritmos: ¿Cuál es el mejor algoritmo para predecir el rendimiento estudiantil? (Q4) y
Validación: ¿Cómo validar la eficacia de un modelo predictivo de deserción o desaprobación
estudiantil? (Q5).

Después, se realizó la búsqueda de los artículos relacionados en las fuentes de


información de Scopus, Scielo, IJCRR y Redalyc mediante las palabras claves “Algoritmo
de Bayes”, “Naive Bayes”, “Modelo Predictivo”, “Predicción”, “Desaprobación
Estudiantil”, “Desempeño”, “Riesgo”, “Aprendizaje Automático”, “Minería de Datos” en el
periodo de años 2018-2021. Los criterios de inclusión para los artículos son los siguientes:
Que sean de acceso abierto, que hayan sido publicados desde el año 2018 en adelante, que
sean artículos de investigación, que estén relacionados a las áreas de investigación de
tecnología, ingeniería, educación, psicología, estadística o ciencias y, por último, que
permitan responder a las preguntas de investigación y presentar validaciones.

La cantidad de artículos encontrados y clasificados en base a la taxonomía de la


investigación se resumen en la siguiente tabla:

Tabla 12
Clasificación de artículos por taxonomía

Taxonomía Cantidad
Modelos
11
(Q1)

61
Componentes
11
(Q2)
Tecnologías
15
(Q3)
Algoritmos
15
(Q4)
Validación
9
(Q5)

Con respecto a los Modelos (Q1), se encontraron diversos modelos predictivos


relacionados con la deserción o el rendimiento estudiantil como el presentado por Rico et al.
(2019) el cual es un modelo para predecir el rendimiento académico de estudiantes
universitarios utilizando el algoritmo Naïve Bayes (México), el presentado por Pekuwali
(2020), el cual es un modelo para predecir los resultados del aprendizaje de estudiantes de
nivel superior utilizando el algoritmo Naïve Bayes (Indonesia) y el presentado por Lee et al.
(2021) el cual es un modelo predictivo para la identificación temprana de estudiantes que
abandonan la escuela (Corea). Sin embargo, no existe un modelo específicamente orientado
a la predicción de la reprobación, lo cual indica que el presente proyecto será un gran aporte
a la literatura.

Con respecto a los Componentes (Q2), al analizar todos los estudios se pudieron
identificar 4 componentes clave para la implementación de un modelo predictivo: Datos,
Patrones de Datos, Técnicas predictivas y Métricas de Validación. Se observó que los
estudios que utilizan técnicas de Machine Learning o Minería de Datos como los presentados
por Rico et. al (2019), Queiroga et al. (2020) y Mubarak et al. (2020), hacen uso del
componente Patrones de Datos, mientras que aquellos que emplean Deep Learning, como
los presentados por Adnan et al. (2021), Zárate et al. (2021) y Ledesma et al. (2018), no lo
hacen, debido a que, como mencionan los autores, los algoritmos de DL pueden procesar
datos en bruto sin necesidad de patrones definidos para su entrenamiento.

En cuanto a las Tecnologías (Q3), los autores nos brindan la posibilidad de elegir
entre 3 tecnologías muy funcionales en el aspecto predictivo, las cuales son, la Minería de
Datos, el Machine Learning y el Deep Learning, no obstante, la fusión entre las 2 primeras
hacen un complemento perfecto que garantiza la eficacia predictiva de un modelo, ya que,

62
como menciona Rico et al. (2019), la limpieza de los datos para evitar la filtración de data
corrupta es fundamental antes de utilizar dicha información para entrenar a un algoritmo
ML. Si bien es cierto que el Deep Learning es muy apto para la predicción, como diría Adnan
et al. (2021), esta técnica está diseñada para procesar data en bruto ya que aprende por ella
misma sin ser entrenada como en el caso del ML y al no necesitar de la minería de datos, es
posible que se filtre data corrupta y ocasione complicaciones al momento de realizar una
predicción.

Con respecto a los Algoritmos (Q4), posterior el análisis de los estudios se


identificaron 5 algoritmos destacados en la predicción del rendimiento estudiantil: Redes
Neuronales, Naïve Bayes, Extreme Machine Learning (EML), Random Forest y Regresión
Logística. Sin embargo, al revisar los niveles de exactitud y eficacia de cada uno de ellos se
pudo concluir que, los algoritmos bayesianos (Naïve Bayes) son los más indicados para
predecir el rendimiento estudiantil debido a que se obtuvieron los valores más altos de
eficacia (92,5%) y exactitud (94,2%) como resultado de los estudios de Pekuwali, A. (2020)
y Khan et al. (2021) respectivamente.

En relación con la Validación (Q5), con el análisis de los estudios se encontraron


diversas técnicas para evaluar la eficiencia de modelos predictivos basados en algoritmos
clasificadores, como la Exactitud, Eficacia, Exhaustividad, F1-Score, Prueba Chi-cuadrado,
Indicador ROC y AUC. No obstante, los indicadores más utilizados en los estudios son los
dos primeros. Según Abdulla (2020), para poder validar la eficacia de un modelo basado en
algoritmos clasificadores es de vital importancia conocer sus tasas de retorno, las cuales son
Verdaderos Positivos (TP), Falsos Positivos (FP), Verdaderos Negativos (TN) y Falsos
Negativos (FN).

2.4 Conclusiones
Para la implementación del presente proyecto es fundamental tener conocimiento de
la etapa evolutiva del sistema educativo actual, para poder comprender las necesidades del
rubro y con ellas las de la empresa objetivo. Además, es de vital importancia tener el
conocimiento del avance tecnológico a nivel nacional para poder aportar valor al negocio
con tecnologías innovadoras que le otorguen ventaja frente a la competencia directa.

63
CAPÍTULO III – DESARROLLO DE LA SOLUCIÓN
En el presente capítulo se contempla el desarrollo del proyecto, incluyendo los
artefactos ágiles y la arquitectura de la solución.

3.1 Incepción Ágil


En esta sección se muestran los artefactos ágiles contemplados en el proyecto.

3.1.1 Visión del Producto (Product Vision Board)


A continuación, se presenta el Product Vision Board del proyecto:

Figura 16
Product Vision Board

3.1.2 Perfil del Usuario o Mapa Persona


Nuestro usuario principal es el señor Grover Basas, maestro y tutor en la I.E.P.
Santiago Antúnez de Mayolo. Para conocer el perfil de este usuario se realizó el siguiente
diagrama:

64
Figura 17

Mapa del Perfil del Usuario

3.1.3 Definición de Roles


A continuación, se muestran los roles del presente proyecto basados en la metodología
Scrum y generales:

Figura 18

Esquema de roles del Proyecto (Scrum)

Grover Basas
(Product
Owner)

Mirko Diana Hidalgo


Bermudez (Scrum Master /
(Team Team
Developer) Developer)

65
El equipo del proyecto Scrum estará conformado por:

Tabla 13

Equipo del Proyecto Scrum

Rol Miembro Responsabilidades Rol en la empresa


Scrum objetivo
Product Grover Basas Brindar información acerca de Docente de los cursos de
Owner los procesos y registros Ciencias Sociales
académicos de la institución (Historia, geografía y
educativa. Revisar y validar los economía),
entregables por Sprint. representante oficial de
la institución para la
elaboración del
proyecto.
Scrum Diana Hidalgo Apoyar al equipo a mantenerse -
Master / enfocado en el cumplimiento de
Team los objetivos establecidos
Develop Realizar documentación y
er desarrollo del producto o
entregables de una manera
iterativa e incremental
Team Mirko Realizar documentación y -
Develop Bermudez desarrollo del producto o
er Diana Hidalgo entregables de una manera
iterativa e incremental

A nivel general, los roles del presente proyecto son los siguientes:

66
Tabla 14

Equipo del Proyecto

Rol del Miembro Responsabilidades Rol en la empresa


Proyecto objetivo
Usuario Grover Basas Brindar información acerca de Docente de los cursos de
Aproba los procesos y registros Ciencias Sociales
dor/Revi académicos de la institución (Historia, geografía y
sor educativa. Aprobar, revisar y economía),
validar los entregables por Sprint. representante oficial de
la institución para la
elaboración del
proyecto.
Líder de Diana Hidalgo Apoyar al equipo a mantenerse -
Proyecto enfocado en el cumplimiento de
/Develop los objetivos establecidos
er Realizar documentación y
desarrollo del producto o
entregables de una manera
iterativa e incremental
Develop Mirko Realizar documentación y -
er Bermudez desarrollo del producto o
entregables de una manera
iterativa e incremental

3.1.4 Diseño Preliminar de la Solución (Product Canvas)


A continuación, se presenta el Product Canvas del proyecto:

67
Figura 19

Product Canvas

3.1.5 Prototipos Alto Nivel


A continuación, se presentan los prototipos de alto nivel de la solución propuesta:

Figura 20

Login

68
Figura 21

Mi Perfil - Estudiante

Figura 22
Responder Encuesta - Estudiante

69
Figura 23

Mi perfil - Docente

Figura 24

Monitorear Encuestas – Docente

70
Figura 25

Predecir Estudiantes en Riesgo - Docente

Figura 26
Consultar Estudiantes en Riesgo - Docente

71
Figura 27

Generar Tips de Estudio - Docente

Figura 28
Generar Reporte de Estudiantes en Riesgo - Administrador

72
Figura 29

Gestionar Secciones - Administrador

Figura 30
Gestionar Usuarios - Administrador

73
Figura 31

Gestionar Usuarios – Administrador- Actualizar

Figura 32

Editar Datos Usuario

74
Figura 33

Gestionar Acciones - Administrador

3.1.6 Historias de Usuario


Las historias de usuario contempladas para el presente proyecto se listan a
continuación:

Tabla 15

HU del proyecto

Identificador de la
Nombre de la Historia
Historia

HU001 Predicción de riesgo escolar


HU002 Responder encuesta
HU003 Consultar estudiantes en riesgo
HU004 Monitorear encuesta
HU005 Generar reporte de estudiantes en riesgo
HU006 Gestionar acciones
HU007 Gestionar Secciones
HU008 Generar tips de estudio
HU009 Gestionar Usuarios
HU010 Acceso del sistema
HU011 Cerrar sesión
HU012 Editar datos usuario

En la siguiente sección, se presenta la priorización de dichas historias y su


clasificación por Sprint.

75
3.1.7 Product Backlog Base
Para estimar la duración por punto de historia se ha hecho uso de la técnica planning
poker, para ello cada miembro del equipo scrum propone un puntaje tentativo basado en el
esfuerzo considerado necesario para llevar a cabo el desarrollo por historia, explicando cada
uno sus razones justificantes en caso de discrepancia de puntajes, logrando así llegar a un
consenso. En este caso se hizo uso de la serie de Fibonacci que consiste en sumar al siguiente
número el valor de los anteriores. A continuación, se muestra una imagen referencial del
planning poker del proyecto:

Figura 34

Planning Poker MPDEAB en la plataforma Planning Poker Online

Nota. La figura muestra el Planning Poker realizado para el proyecto. Captura de pantalla
tomada de “Planning Poker Online”, 2022,
(https://planningpokeronline.com/AMZke8rIrOZgYr7SH45k).

Para estimar el valor del negocio, se empleó el método de Kano, el cual consiste en
priorizar características en función del grado de satisfacción que otorgan al cliente. Para
poder hacer uso de este método se debe realizar una encuesta al usuario acerca de las
características que se van a considerar teniendo como base la siguiente matriz de opciones
de respuesta:

Tabla 16

Matriz de opciones Modelo Kano


Respuesta a la pregunta disfuncional

76
TABLA DE Gusta Espero Neutral Acepto Disgusta
IDENTIFICACIÓN
Respuesta la Gusta Q A A A O
funcional
pregunta Espero R I I I M
Neutral R I I I M
Acepto R I I I M
Disgusta R R R R Q

Nota. Adaptado de “El modelo Kano: cómo identificar las necesidades ocultas de los
clientes”, por IEBS School, 2022, (https://www.iebschool.com/blog/el-modelo-kano-
satisfaccion-del-cliente-management/).

En dónde:

• Q: Cuestionable
• A: Atractivo
• O: Unidimensional
• I: Indiferente
• R: Opuesto
• M: Calidad requerida

En base a la matriz mencionada, se pueden clasificar las características en base al


siguiente gráfico:

Figura 35

Interpretación del Modelo Kano

77
Nota. Adaptado de “El modelo Kano: cómo identificar las necesidades ocultas de los
clientes”, por IEBS School, 2022, (https://www.iebschool.com/blog/el-modelo-kano-
satisfaccion-del-cliente-management/).

Para este caso, en conjunto con el Product Owner, se establecieron como características
el objetivo principal de cada HU, además, se acordó puntuar cada característica en escala del
1 al 100 en base al nivel de satisfacción establecido mediante el modelo Kano siendo 1 el
valor más bajo y 100 el más alto considerándose los siguientes rangos y valores:

• R: 1-9
• I: 10-19
• M: 20-49
• O: 50-80
• A: 81-100

Al finalizar la puntuación de las características se obtuvieron los siguientes resultados:

Tabla 17

Resultados obtenidos del Modelo Kano


Característica Categoría Valor
Predecir el riesgo estudiantil A 100
Responder Encuestas A 100
Consultar Estudiantes en Riesgo A 100
Monitorear Encuesta O 80
Generar Reporte de Estudiantes en Riesgo O 70
Gestionar acciones O 70
Gestionar secciones O 60
Generar tips de estudio M 50
Gestionar Usuarios M 50
Acceder al sistema por login M 20
Iniciar y cerrar sesión M 20
Editar datos del usuario M 20

Nota. La tabla presenta los valores obtenidos al utilizar el modelo Kano para estimar el valor
del negocio de la HU del proyecto.

En base a los resultados obtenidos se realizó la estimación y priorización del Product


Backlog Base del proyecto como se visualiza a continuación:

78
Tabla 18

Product Backlog Base del Proyecto


Descripción de la Historia de Usuario Valor Estimació
Identificad Sp
Nombre de Necesito Para para el n (Puntos
or de la Como rin
la Historia (característic (valor de Negocio de
Historia (rol) t
a) negocio) (1-100) historia)
Conocer a los
Tomar
estudiantes
acciones y
Predicción de que están en
ayudarlos a
HU001 riesgo Docente riesgo de 100 1 89
optimizar
escolar desaprobar el
su
curso de
rendimiento
Historia
Que los
Manifestar mi
docentes
opinión con
Responder Estudiant me ayuden
HU002 respecto a la 100 1 55
encuesta e a mejorar
modalidad de
mi
aprendizaje
desempeño
Gestionar a Consultar a
Consultar los los
HU003 estudiantes Docente estudiantes en estudiantes 100 1 34
en riesgo riesgo por en riesgo
sección por sección
Validar que Identificar
los a los
Monitorear estudiantes estudiantes
HU004 Docente 80 2 55
encuesta hayan en riesgo
respondido las mediante el
encuestas sistema
Monitorear
Generar
Generar el
reportes de
reporte de Administr rendimiento
HU005 estudiantes en 70 2 34
estudiantes ador de los
riesgo por
en riesgo estudiantes
sección
por sección
Gestionar
las acciones
Gestionar las que se
acciones para tomarán
Gestionar Administr
HU006 los cuando se 70 2 55
acciones ador
estudiantes en conozcan a
riesgo los alumnos
en riesgo de
desaprobar
Gestionar las
secciones de
nivel Generar las
Gestionar Administr secundaria secciones
HU007 60 2 34
Secciones ador Editar las del nivel
secciones de secundario
nivel
secundaria
Publicar tips Apoyar a
Generar tips de estudio los
HU008 Docente 50 3 55
de estudio para los estudiantes
estudiantes a optimizar

79
su
desempeño

Gestionar a
los usuarios
Dar de alta a
que
Gestionar Administr un usuario.
HU009 ingresarán 50 3 55
Usuarios ador Dar de baja a
a la
un usuario.
aplicación
web
Administr Acceder a la
ador, aplicación Realizar
Acceso del
HU010 Docente, web mediante gestiones 20 3 21
sistema
Estudiant el uso de mis pertinentes
e credenciales.
Administr Proteger mi
Cerrar sesión
ador, cuenta
en la
HU011 Cerrar sesión Docente, cuando ya 20 3 21
aplicación
Estudiant no utilice la
web
e aplicación
Administr Actualizar
ador, Editar mis mis datos
Editar datos
HU012 Docente, datos en caso de 20 3 34
usuario
Estudiant personales equivocació
e n o cambio

3.1.8 Tablero Scrum Base


A continuación, se presenta el Tablero Scrum base del proyecto en donde se visualiza el
estado de cada tarea relacionada a una historia de usuario por Sprint. Los estados o etapas a
considerar son los siguientes:

• Pendiente: En esta etapa se encuentran las tareas que están pendientes de desarrollo
• En Proceso: En esta etapa se encuentran las tareas que están siendo ejecutadas en
este momento
• En Pruebas: En esta etapa se encuentran las tareas que están siendo testeadas
• Terminado: En esta etapa se encuentran las tareas que han sido desarrolladas y han
pasado la etapa de pruebas con éxito, por lo tanto, están culminadas

80
Figura 36

Tablero Scrum Base en la plataforma Trello

Nota. La figura muestra el tablero Scrum base del proyecto. Captura de pantalla tomada de
“Trello”, 2022, (https://trello.com/b/FuCATIe8/tablero-scrum-base).

3.1.9 RoadMap del Producto (Product RoadMap o Release Planning)


El RoadMap del producto es el siguiente:

Figura 37

RoadMap del producto

81
3.1.10 Otras consideraciones
En esta sección se describen las consideraciones del proyecto que no han sido
especificadas en los puntos anteriores.

3.1.10.1 Alcance funcional no considerado


El proyecto no incluye las siguientes funcionalidades:

− Funcionar como aula virtual o intranet


− Acceder al módulo de predicción desde el perfil Estudiante
− Predecir la deserción de un estudiante

3.1.10.2 Restricciones del proyecto/negocio/producto


A continuación, se presentan las restricciones consideradas para el presente proyecto:

Tabla 19

Restricciones del proyecto


Restricciones Descripción
Acceso Limitado a Para llevar a cabo el entrenamiento del modelo predictivo y
la información las pruebas del presente proyecto se cuenta solo con
información histórica del curso de Ciencias Sociales (Historia)
de la institución objetivo.

3.2 Arquitectura de Software


En esta sección se presenta la arquitectura relacionada al proyecto

3.2.1 Arquitectura Técnica Base (Conceptualización de la solución técnica)


Para tener una idea más clara de la propuesta de solución se ha utilizado el modelo
4C para realizar la arquitectura técnica base y se muestra a continuación:

82
Figura 38

Modelo 4C - Diagrama de Contexto

Figura 39

Modelo 4C - Diagrama de Contenedores

83
Figura 40

Modelo 4C - Diagrama de Componentes

84
85
Figura 41

Modelo 4C - Diagrama de Código

86
Figura 42

Arquitectura de Datos

3.2.2 Arquitectura Técnica específica


A continuación, se detalla la arquitectura técnica específica contemplada en el
presente proyecto:

87
Tabla 20

Requerimientos que impactan la arquitectura

Código Descripción
Requerimientos funcionales de uso general
RFUN01 Predecir estudiantes en riesgo de desaprobar un curso.
Requerimientos de capacidad de uso
SUPL01 Aspecto de la interfaz gráfica del sistema: facilitará el trabajo del
profesor para el apoyo a los estudiantes.
SUPL02 Alerta de error: En caso de error el sistema informará mediante un
mensaje el error producido.
SUPL03 El sistema debe alinearse al patrón de diseño MVC.
Requerimientos de confiabilidad
SUPL04 El sistema debe estar disponible para el inicio de clases del año escolar
2023.
SUPL05 En caso de errores el sistema será restablecido en menos de 12 horas.
Requerimientos de rendimiento
SUPL06 Hasta 30 usuarios conectados de manera concurrente en el sistema.
SUPL07 Tiempo de respuesta: El tiempo de respuesta promedio del sistema para
consultar información de los estudiantes será de 5 segundos.
Requerimientos de soporte
SUPL08 El sistema debe operar en cualquier computador personal con procesador
Intel Core i3, 8GB de memoria RAM y disco duro de 500 Gb y debe
estar conectado a internet.
SUPL09 El sistema se actualizará en caso el colegio lo necesite.

Tabla 21
Restricciones de la arquitectura

Código Descripción
Restricciones de soporte
SUPL10 El sistema será compatible con los siguientes navegadores en su versión
mínima aceptada: Internet Explorer 8, Chrome 80, Firefox 77.

88
Requerimientos de diseño
SUPL11 El sistema será implementado siguiendo el patrón MVC de NET
FRAMEWORK con API REST en NET.CORE.
SUPL12 El motor de base de datos es SQL SERVER.

Tabla 22
Mecanismos y tácticas de diseño

Mecanismos de análisis y sus soluciones a través del diseño y la implementación


Mecanismo Requerimientos Solución
abordados
Gestión de errores: • El sistema utiliza excepciones para
Facilita la detección, SUPL02 comunicar los mensajes de error.
propagación y SUPL03 • El sistema seguirá las mejores
notificación de errores. prácticas establecidas.
Persistencia: Constituye SUPL19 • El software de SQL SERVER como
el api rest para la SUPL20 motor de datos principal y la
manipulación de arquitectura API REST permitirán
variables a predecir. una fácil integración de los datos a
manejar

89
Figura 43

Diagrama de Capas del Sistema

Tabla 23

Especificación de las capas lógicas del sistema


Capas Lógicas del Sistema
Capa Descripción
Cliente Capa que sirve de intermediario entre el cliente y el sistema
Presentación Se encarga de que el sistema interactúe con el usuario y viceversa.
Controladores Web En esta capa figuran los controladores WEB
que se comunicarán con las vistas y modelo
de datos de la aplicación.
Vistas En esta capa están las interfaces de la
aplicación las cuales interactúan con el
modelo de datos.
Modelo de Datos En esta capa figura el modelo de datos de la
aplicación a partir del cual se generan las

90
entidades. Se relaciona con la base de datos y
el API predictivo.
API Es donde se envía la petición para el servicio de Predicción.
Api Rest Predicción API que permite realizar la predicción de
estudiantes en riesgo mediante el modelo de
algoritmos bayesianos. Se relaciona con la
capa de base de datos tanto para registrar los
resultados de las predicciones realizadas
como para obtenerlos y llevar a cabo su
entrenamiento.
Base de Datos Esta capa es la encargada de almacenar los datos del sistema. Su
función es almacenar y devolver datos.
Acceso a Datos Capa que permite acceder a la base de datos
SQL SERVER.

En el siguiente diagrama se muestra la distribución y configuración de los elementos


de hardware (nodos) contenida en la arquitectura física del sistema:

91
Figura 44

Arquitectura física del sistema

Tabla 24
Especificación de la arquitectura física del sistema

Arquitectura física de la solución


Nombre Descripción Tipo Uso Software Base
del nodo
NOD01 Computadora del cliente Procesador Cliente Browser
por la cual podrá acceder
al sistema.
NOD02 Azure App Service Servidor WEB
proporcionará la Container FRONT
capacidad de respuesta a APPLICATION
las peticiones HTTPS de
los navegadores,

92
manteniendo la
escalabilidad y la alta
disponibilidad del
sistema.
NOD03 Para la parte de Servidor API Container BACKEND
transacciones solicitadas APPLICATION
por el Web Container, se
utilizará también Azure
App Service como un
contenedor de API. Este
contenedor se encargará
de gestionar las
transacciones solicitadas
por el contenedor web,
asegurando la respuesta
adecuada a las
peticiones.
NOD04 Azure SQL Database Servidor Azure SQL SQL SERVER
garantiza la seguridad, el Database
rendimiento y la
estabilidad necesarios
para gestionar grandes
cantidades de
información y
proporcionar una
respuesta rápida a las
consultas.

3.3 Desarrollo de Sprint 1


En la presente sección se explica a detalle el proceso de elaboración del primer Sprint
del proyecto incluyendo el Sprint Planning, la construcción del primer incremento, la

93
consolidación de los Daily Meetings, el Sprint Review, Sprint Retrospective y el
refinamiento del Product Backlog.

El Sprint Goal definido para el presente Sprint es el siguiente: El usuario podrá


efectuar predicciones del riesgo estudiantil desde la interfaz del sistema.

3.3.1 Sprint Planning


En esta sección se presentan los puntos presentados en el Sprint Planning del
Proyecto correspondientes al Sprint 1.

3.3.1.1 Definición de Listo DoR y Definición de Terminado DoD


El Definition of Ready (DoR) del presente Sprint contempla lo siguiente, validando
que cada HU cumpla con el modelo INVEST:

Tabla 25

DoR del Sprint 1

Criterio ¿Cumple?

Las HU fueron revisadas, entendidas y aprobadas por el PO ✓

Las HU definidas son independientes con respecto a su funcionalidad y


pueden ser construidas totalmente en el presente Sprint (I) ✓

Las HU definidas son negociables y sus detalles serán acordados con el


PO por medio de reuniones (N) ✓

Las HU definidas aportan valor para el PO (V) ✓

Las HU definidas han sido estimadas por los desarrolladores (E) ✓

Las HU definidas son pequeñas y precisas (S) ✓

Las HU definidas pueden ser probadas (T) ✓

El Definition of Done (DoD) del presente Sprint contempla lo siguiente:

94
Tabla 26

DoD del Sprint 1

Criterio Estado de aceptación

Adecuación Funcional: Las funciones y propiedades satisfacen las


Aprobado
necesidades explícitas e implícitas del usuario

Eficiencia de Desempeño: El software no presenta problemas de


Aprobado
rendimiento pese a la concurrencia

Usabilidad: El software es fácil de usar y de aprender Aprobado

Estado de las HU en el tablero Scrum (Trello) al culminar el Sprint 1 Terminado

Conformidad del usuario para el primer incremento Aprobado

Existencia de documentación técnica y funcional por componente


Terminado
desarrollado

Publicación en el sharepoint de los entregables técnicos del


Realizado
incremento con el número de versión correspondiente al Sprint

3.3.1.2 Selección de Historias de Usuario para el Sprint


Las HU a considerar para el presente Sprint son las siguientes:

Tabla 27
Historias de Usuario del Sprint 1
Descripción de la Historia de Usuario
Identificador Nombre de
Para (valor de
de la Historia la Historia Como (rol) Necesito (característica)
negocio)
Tomar acciones y
Predicción Conocer a los estudiantes que
ayudarlos a
HU001 de riesgo Docente están en riesgo de desaprobar el
optimizar su
escolar curso de Historia
rendimiento
Manifestar mi opinión con Que los docentes me
Responder
HU002 Estudiante respecto a la modalidad de ayuden a mejorar mi
encuesta
aprendizaje desempeño
Consultar Consultar a los
Gestionar a los estudiantes en
HU003 estudiantes Docente estudiantes en riesgo
riesgo por sección
en riesgo por sección

95
3.3.1.3 Validación de estimación realizada en el Inception Agile
Como se puede apreciar en el punto 3.1.7, para realizar la estimación de las HU en
el Product Backlog Base se empleó la técnica del Planning Poker, basándose en el esfuerzo
por punto de historia.

Para el desarrollo del presente Sprint se tomará en cuenta un total de 178 puntos
distribuidos de la siguiente manera:

• HU001: 89 puntos
• HU002: 55 puntos
• HU003: 34 puntos

La estimación en días del presente Sprint en base a los puntos por HU se puede apreciar
a detalle en el Sprint Backlog del punto 3.3.1.6.

3.3.1.4 Actualización de los Criterios de Aceptación de la Historias de Usuario


A continuación, se presentan los criterios de aceptación actualizados para las HU
consideradas en el presente Sprint:

Tabla 28
Criterios de Aceptación para las HU del Sprint 1

Identificador de
Nombre de la Historia Criterios de Aceptación
la Historia
Si se ingresa con un perfil diferente a docente el
sistema no muestra la interfaz para realizar la
predicción de los estudiantes en riesgo de
reprobación.
Cuando se cargue la interfaz, se listan todas las
secciones asignadas al docente correspondientes
al curso de Historia.
Cuando se cargue la interfaz, se listan todas las
Predicción de riesgo acciones configuradas para la gestión del riesgo.
HU001
escolar Cuando se cargue la interfaz, el sistema muestra
dos botones, uno de Consulta y otro para
Predecir.
Cuando se seleccione el botón de consulta, el
sistema solo consulta a los estudiantes por
secciones que hayan completado la encuesta.
Cuando se seleccione el botón de predecir, el
sistema predice el riesgo de los estudiantes de la
sección seleccionada.

96
Después de realizarse la predicción de riesgo
estudiantil, los resultados tienen un nivel de
eficacia mayor a 95%.
Si se ingresa con un perfil diferente a estudiante
el sistema no muestra la interfaz para responder
las encuestas.
Si un estudiante no ha llenado aún la encuesta, el
sistema muestra la encuesta al ingresar a su
perfil.
HU002 Responder encuesta Cuando se carga la interfaz de responder
encuesta, el formulario muestra únicamente
preguntas con selección de opciones, mas no de
respuesta abierta.
Si se llenó la encuesta correctamente, el sistema
muestra un mensaje indicando que se ha llenado
la encuesta correctamente.
Si se ingresa con un perfil diferente a docente el
sistema no muestra la interfaz para consultar a
los estudiantes en riesgo por secciones.
Cuando se cargue la interfaz, se listan todas las
secciones asignadas al docente correspondientes
al curso de Historia.
Consultar estudiantes en Cuando se cargue la interfaz, el sistema muestra
HU003
riesgo el botón consultar.
Cuando se selecciona el botón de consulta, el
sistema muestra como resultado de la predicción
de los estudiantes en riesgo de reprobar el curso
de Historia dictado por el docente en base a la
sección elegida.

3.3.1.5 Listado de tareas técnicas por historia de usuario


A continuación, se presenta el listado de las tareas técnicas por HU del Sprint 1:

Tabla 29
Tareas técnicas por HU para el Sprint 1

Identificador de
Nombre de la Historia Tareas
la Historia

HU001-01 - Creación de arquitectura

HU001-02 - Creación del modelo de datos relacional


Predicción de riesgo
HU001
escolar HU001-03 - Establecer las variables del modelo
predictivo

HU001-04 - Diseño del modelo predictivo

97
HU001-05 - Clasificación y limpieza de datos

HU001-06 - Creación del modelo predictivo

HU001-07 - Entrenamiento del modelo predictivo

HU002-01 - Creación de perfiles

HU002-02 - Creación de menú de estudiante


HU002 Responder encuesta
HU002-03 - Creación de formulario de encuesta

HU002-04 - Desarrollo de la funcionalidad de la


encuesta

HU003-01 - Creación del menú de docente

Consultar estudiantes en HU003-02 - Creación de interfaz para consulta de


HU003
riesgo estudiantes en riesgo

HU003-03 - Desarrollo de la funcionalidad de la


consulta de estudiantes en riesgo

98
3.3.1.6 Sprint Backlog
El Sprint Backlog correspondiente al primer Sprint se presenta a continuación:

Tabla 30

Sprint Backlog del Sprint 1

Identificador de Fecha de Inicio Fecha de Fin


Nombre de la Historia Tareas Responsable
la Historia Estimada Estimada

HU001-01 - Creación de arquitectura Scrum Team 2/08/2022 2/08/2022

HU001-02 - Creación del modelo de datos


Scrum Team 2/08/2022 2/08/2022
relacional
HU001-03 - Establecer las variables del
Scrum Team 3/08/2022 4/08/2022
modelo predictivo

HU001 Predicción de riesgo escolar HU001-04 - Diseño del modelo predictivo Scrum Team 5/08/2022 9/08/2022

HU001-05 - Clasificación y limpieza de


Scrum Team 9/08/2022 10/08/2022
datos
HU001-06 - Creación del modelo
Scrum Team 10/08/2022 19/08/2022
predictivo
HU001-07 - Entrenamiento del modelo
Scrum Team 19/08/2022 22/08/2022
predictivo

HU002-01 - Creación de perfiles Scrum Team 23/08/2022 23/08/2022


HU002 Responder encuesta
HU002-02 - Creación de menú de
Scrum Team 23/08/2022 23/08/2022
estudiante

99
HU002-03 - Creación de formulario de
Scrum Team 24/08/2022 24/08/2022
encuesta

HU002-04 - Desarrollo de la funcionalidad


Scrum Team 25/08/2022 29/08/2022
de la encuesta

HU003-01 - Creación del menú de docente Scrum Team 29/08/2022 29/08/2022

HU003-02 - Creación de interfaz para


HU003 Consultar estudiantes en riesgo Scrum Team 29/08/2022 29/08/2022
consulta de estudiantes en riesgo

HU003-03 - Desarrollo de la funcionalidad


Scrum Team 29/08/2022 31/08/2022
de la consulta de estudiantes en riesgo

100
3.3.1.7 Actualización del Tablero Scrum
A continuación, se muestra el Tablero Scrum actualizado en Trello correspondiente
al primer Sprint:

Figura 45

Tablero Scrum Sprint 1 Actualizado

Nota. La figura muestra el tablero Scrum correspondiente al Sprint 1 actualizado. Captura


de pantalla tomada de “Trello”, 2022, (https://trello.com/b/FuCATIe8/tablero-scrum-base).

3.3.1.8 Resumen del Sprint Planning

El resumen correspondiente al Sprint Planning del presente Sprint se puede visualizar


en el Anexo 7.

3.3.2 Construcción del Sprint 1


En esta sección se presentan los prototipos validados por el PO, la gestión del
Sprint Backlog, la documentación técnica y funcional correspondiente a los
componentes implementados, los escenarios de prueba, los casos de prueba, los
resultados de las pruebas y la gestión de acuerdos correspondientes al Sprint 1.

3.3.2.1 Prototipos validados por el PO


A continuación, se presentan los prototipos validados con el PO correspondientes al
Sprint 1 por HU:

101
Figura 46

HU001 - Predicción del Riego Escolar

Figura 47
HU002 - Responder Encuesta

102
Figura 48

HU003 - Consultar estudiantes en riesgo

El acta de aprobación de los prototipos por parte del PO para el presente Sprint se
puede visualizar en el Anexo 7.

3.3.2.2 Gestión del Sprint Backlog


El desarrollo del presente Sprint se realizó respetando las HU y tareas establecidas
en el Sprint Backlog del punto 3.3.1.6. y la gestión por cada una de ellas comparando lo
estimado vs lo real se detalla en el Sprint Burndown Chart del punto 3.3.3.3.

A continuación, se muestra la gestión del Tablero Scrum realizada en Trello para el


presente Sprint:

103
Figura 49

Gestión del Tablero Scrum para el Sprint 1

Nota. La figura muestra la gestión del tablero Scrum correspondiente al Sprint 1. Captura de
pantalla tomada de “Trello”, 2022, (https://trello.com/b/FuCATIe8/tablero-scrum-base).

3.3.2.3 Documentación funcional y técnica de los componentes construidos


La documentación técnica y funcional correspondientes a las HU contempladas en
el Sprint 1 se encuentra visible para los miembros del equipo del proyecto en el repositorio
compartido para el presente Sprint.

3.3.2.4 Definición de Escenarios y Casos de Prueba


A continuación, se muestran los escenarios y casos de prueba definidos por HU en
base a los criterios de aceptación establecidos por cada una de ellas:

Tabla 31
Escenarios y Casos de Prueba definidos para el Sprint 1
ID Caso
Identificador Datos de
HU de Caso de Prueba Resultado Esperado
de la HU Prueba
Prueba
La opción para realizar Perfil
Ingresar con un perfil
la predicción de estudiante y
distinto a docente
estudiantes en riesgo administrador
CP001 para realizar la
Predicción no debe estar
predicción de
HU001 de riesgo habilitada para el Prueba
estudiantes en riesgo
escolar perfil manual
Ingresar a la interfaz En el selector de Perfil
CP002 de predicción de secciones se deben docente
riesgo estudiantil listar correctamente las

104
secciones asignadas al Prueba
docente manual

En el selector de
acciones se deben
listar correctamente las
acciones configuradas

Se deben mostrar los


botones “Consultar” y
“Predecir”

Se deben listar los


Perfil
estudiantes que hayan
docente
Realizar una consulta completado la
CP003
de estudiantes encuesta en base al
Prueba
filtro de sección
manual
seleccionado
Se debe realizar la
predicción en base a
los estudiantes que
hayan completado la
encuesta, se debe
ejecutar la acción
Perfil
seleccionada y se debe
Realizar una docente
mostrar un mensaje
CP004 predicción de riesgo
indicando que se
estudiantil Prueba
realizó la predicción
manual
correctamente

La eficacia alcanzada
por el modelo debe ser
mayor a 95%

Realizar la predicción El sistema debe 15 usuarios


de riesgo estudiantil permitir más de 10 concurrentes
CP005 desde JMeter con más peticiones
de 10 usuarios concurrentes sin Prueba
concurrentes presentar fallos automatizada
Perfil
Ingresar con un perfil La opción para llenar docente y
distinto a estudiante encuesta no debe estar administrador
CP006
para realizar el habilitada para el
llenado de encuesta perfil Prueba
manual
Ingresar a la interfaz La interfaz debe
Perfil
para el llenado de mostrar la encuesta
estudiante
Responder encuesta con un conteniendo
HU002 CP007
encuesta estudiante que no únicamente preguntas
Prueba
haya respondido la de respuesta para
manual
encuesta elección de opciones
Ingresar a la interfaz
Perfil
para el llenado de
No se debe mostrar la estudiante
encuesta con un
CP008 interfaz para llenar
estudiante que ya
encuesta Prueba
haya respondido la
manual
encuesta

105
El sistema debe
almacenar las Perfil
respuestas y mostrar estudiante
Llenar una encuesta y
CP009 un mensaje indicando
guardar las respuestas
que se han guardado Prueba
correctamente las manual
respuestas
El sistema debe Perfil
Ingresar a la interfaz mostrar un selector de docente
CP010 de consulta de secciones para que el
estudiantes en riesgo docente consulte la Prueba
predicción manual
En el selector de
secciones se deben
listar correctamente las Perfil
Consultar Ingresar a la interfaz secciones asignadas al docente
HU003 estudiantes CP011 de consulta de riesgo docente
en riesgo estudiantil Prueba
Se debe mostrar el manual
botón “Consultar”

El sistema debe Perfil


Realizar una consulta mostrar el listado de docente
CP012 de estudiantes en estudiantes en riesgo
riesgo en base a la sección Prueba
elegida manual

3.3.2.5 Resultados de Pruebas Internas según los escenarios definidos, los criterios de
aceptación y la Definición de Terminado (DoD)
Los resultados obtenidos posterior a la ejecución de las pruebas internas y con
respecto a la DoD se sustentan en el punto 4.1.1 orientado al Sprint 1 y la gestión del tablero
Scrum del Trello.

A continuación, se muestra de manera resumida el cumplimiento del DoD del


presente Sprint:

Tabla 32

Checklist de cumplimiento del DoD del Sprint 1

Criterio ¿Cumplido?

Adecuación Funcional: Las funciones y propiedades satisfacen las



necesidades explícitas e implícitas del usuario

Eficiencia de Desempeño: El software no presenta problemas de ✓


rendimiento pese a la concurrencia

106
Usabilidad: El software es fácil de usar y de aprender ✓

Estado de las HU en el tablero Scrum (Trello) al culminar el Sprint 1 ✓

Conformidad del usuario para el primer incremento ✓

Existencia de documentación técnica y funcional por componente



desarrollado

Publicación en el sharepoint de los entregables técnicos del ✓


incremento con el número de versión correspondiente al Sprint

El cumplimiento de los puntos del plan de calidad definidos en el punto 5.1.4.4. por
Sprint basados en la ISO/IEC-25010 para la “Calidad del Producto Software”, se puede
visualizar en el punto 4.1.1.

La medición de las métricas de calidad definidas en base al PMBOK


correspondientes al presente Sprint se pueden visualizar en el punto 5.2.1.

En base a los resultados obtenidos, se puede dar por cumplido al Sprint Goal
correspondiente al Sprint 1, dado que, el usuario a través de la interfaz puede realizar
predicciones de riesgo estudiantil con el nivel de eficacia propuesto para el proyecto.

3.3.2.6 Gestión de Acuerdos del Sprint


A continuación, se muestra la consolidación de acuerdos obtenidos para el presente
Sprint posterior a las reuniones realizadas por el equipo Scrum:

✓ El inicio formal del Sprint 1 será el día 01/08/2022


✓ Se definieron los roles del proyecto, en donde Grover Basas toma el rol de Product
Owner, Mirko Bermudez toma el rol de Team Scrum y Diana Hidalgo toma los
roles de Team Scrum/Scrum Master
✓ Se definieron y priorizaron las HU en el Product Backlog considerando para el
Sprint 1 la HU001 (Predicción de riesgo escolar), la HU002 (Responder encuesta)
y la HU003 (Consultar estudiantes en riesgo)
✓ Se acordó realizar las pruebas en base a los criterios de aceptación de cada una de
las historias de usuario

107
✓ Se acordó pasar a “Terminado” una HU en el Trello solo si ha pasado
satisfactoriamente todas las pruebas
✓ Se actualizó el cronograma de trabajo adelantando la fecha de entrega del primer
incremento para el 08/09/2022

3.3.3 Daily Meeting


En esta sección se presentan los puntos a considerar en los Daily Meeting del
Proyecto correspondientes al Sprint 1.

3.3.3.1 Frecuencia de Reuniones


Para el presente Sprint se tienen programadas las reuniones daily los días lunes y
viernes en horario de 9:30pm a 9:45pm.

3.3.3.2 Gestión del Tablero para el Sprint


Cada integrante del equipo Scrum es responsable de gestionar y evidenciar en el Tablero
Scrum del Trello las actividades asignadas por HU para el Sprint. Además, tiene como deber
asistir a los daily meeting y responder las siguientes preguntas:

• ¿Qué hiciste ayer?


• ¿Qué harás hoy?
• ¿Hay impedimentos en tu camino?

Asimismo, todas las respuestas deben quedar evidenciadas en actas, las cuales se podrán
visualizar en el Anexo 7.

108
3.3.3.3 Sprint Burndown Chart
En esta sección se presenta el Burndown Chart correspondiente al presente Sprint.

En la siguiente tabla se observa el detalle de la estimación por puntos de HU correspondiente al Sprint 1.

Tabla 33
Burndown Chart - Estimación Esperada por HU del Sprint 1
Estimado Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Estado por HU 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

1 HU001 Scrum Team Terminado 89 89

2 HU002 Scrum Team Terminado 55 55

3 HU003 Scrum Team Terminado 34 34

Total 178 178 178 178 178 178 178 178 178 178 178 178 178 178 178 89 89 89 89 34 34 34 0

En la siguiente tabla se observa de manera detallada la estimación por tareas y puntos de historia correspondientes al Sprint 1. Dicha
estimación es la esperada o ideal para llevar a cabo el primer Sprint.

Tabla 34
Burndown Chart - Estimación Esperada por Tareas del Sprint 1
Estimado
Estimado por Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Tarea Estado por HU Tarea 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

109
HU001-01 - Creación de
Scrum Team Terminado
arquitectura 4 4

HU001-02 - Creación del


Scrum Team Terminado
modelo de datos relacional 4 4

HU001-03 - Establecer las


Scrum Team variables del modelo Terminado
predictivo 12 12

HU001-04 - Diseño del


1 HU001 Scrum Team Terminado 89
modelo predictivo 16 16

HU001-05 - Clasificación
Scrum Team Terminado
y limpieza de datos 8 8

HU001-06 - Creación del


Scrum Team Terminado
modelo predictivo 34 34

HU001-07 -
Scrum Team Entrenamiento del modelo Terminado
predictivo 11 11

HU002-01 - Creación de
Scrum Team Terminado
perfiles 4 4

HU002-02 - Creación de
Scrum Team Terminado
menú de estudiante 5 5

2 HU002 55
HU002-03 - Creación de
Scrum Team Terminado
formulario de encuesta 18 18

HU002-04 - Desarrollo de
Scrum Team la funcionalidad de la Terminado
encuesta 28 28

HU003-01 - Creación del


3 HU003 Scrum Team Terminado 34
menú de docente 5 5

110
HU003-02 - Creación de
Scrum Team interfaz para consulta de Terminado
estudiantes en riesgo 11 11

HU003-03 - Desarrollo de
la funcionalidad de la
Scrum Team Terminado
consulta de estudiantes en
riesgo 18 18

Total 178 178 170 170 158 158 142 134 134 134 134 134 134 134 100 89 80 80 62 62 34 29 18 0

A continuación, se muestra el avance real monitoreado para el desarrollo del Sprint 1 por HU y por tareas.

Tabla 35

Burndown Chart - Avance Real por HU del Sprint 1


Real por Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Estado HU 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

1 HU001 Scrum Team Terminado 89 89

2 HU002 Scrum Team Terminado 55 55

3 HU003 Scrum Team Terminado 34 34

Total 178 178 178 178 178 178 178 178 178 178 178 178 178 178 178 178 89 89 89 89 89 34 0

111
Tabla 36

Burndown Chart - Avance Real por Tareas del Sprint 1


Real
Real por Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Tarea Estado por HU Tarea 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

HU001-01 - Creación de
Scrum Team Terminado
arquitectura 4 4

HU001-02 - Creación del


Scrum Team Terminado
modelo de datos relacional 4 4

HU001-03 - Establecer las


Scrum Team variables del modelo Terminado
predictivo 12 12

HU001-04 - Diseño del


1 HU001 Scrum Team Terminado 89
modelo predictivo 16 16

HU001-05 - Clasificación
Scrum Team Terminado
y limpieza de datos 8 8

HU001-06 - Creación del


Scrum Team Terminado
modelo predictivo 34 34

HU001-07 -
Scrum Team Entrenamiento del modelo Terminado
predictivo 11 11

HU002-01 - Creación de
Scrum Team Terminado
perfiles 4 4
2 HU002 55
HU002-02 - Creación de
Scrum Team Terminado
menú de estudiante 5 5

112
HU002-03 - Creación de
Scrum Team Terminado
formulario de encuesta 18 18

HU002-04 - Desarrollo de
Scrum Team la funcionalidad de la Terminado
encuesta 28 28

HU003-01 - Creación del


Scrum Team Terminado
menú de docente 5 5

HU003-02 - Creación de
Scrum Team interfaz para consulta de Terminado
3 HU003 estudiantes en riesgo 34 11 11

HU003-03 - Desarrollo de
la funcionalidad de la
Scrum Team Terminado
consulta de estudiantes en
riesgo 18 18

Total 178 178 170 170 170 158 158 158 142 134 134 134 134 134 134 134 100 85 62 62 62 62 29 0

113
Como se puede observar en el siguiente gráfico, el Sprint Burndown estimado por
puntos de HU correspondiente al presente Sprint, muestra una línea base de esfuerzo basada
en la duración de la etapa de construcción (22 días) en la cual se puede visualizar que, entre
los días 1 y 15, se necesitará un esfuerzo constante por parte del equipo Scrum para poder
cumplir con lo estimado, sin embargo, a partir del día 16, el esfuerzo deja de ser constante y
se convierte en variante lo cual nos advierte de la aparición de posibles riesgos que dificulten
cumplir el objetivo al finalizar el Sprint.

Figura 50

Sprint Burndown Chart por HU- Sprint 1

Sprint Burndown
180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por HU Lineal (Estimado por HU)

Si se detalla por tareas, se puede destacar que el intervalo existente entre los días 7 y
13 del desarrollo del proyecto, será el que posea mayor esfuerzo constante por parte del
equipo Scrum para poder cumplir con los objetivos propuestos, lo cual no se aprecia con
claridad en el gráfico precedente.

114
Figura 51

Sprint Burndown Chart por Tareas - Sprint 1

Sprint Burndown
180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por Tarea Lineal (Estimado por Tarea)

En la siguiente figura se pueden apreciar las diferencias existentes entre el esfuerzo


y tiempo estimado por puntos de HU vs el real. Se puede observar que desde el día 15 el
avance real implicó mayor esfuerzo y tiempo de lo esperado prolongando el trabajo del
equipo Scrum, lo cual representó un riesgo alto con respecto al cumplimiento de objetivos.
No obstante, en el día 22 se llegó a cumplir con la meta propuesta en base al esfuerzo y
tiempo estimado para la construcción del Sprint.

Figura 52
Sprint Burndown Chart por HU (Estimación vs Real) - Sprint 1

Sprint Burndown (Estimacion vs Real)


180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por HU Real por HU

115
A nivel de tareas, se pueden apreciar con mayor detalle las diferencias existentes
entre el esfuerzo y tiempo estimado vs el real. Se puede observar que en los días 4, 7 y 15,
el avance real implicó mayor esfuerzo y tiempo de lo esperado, sin embargo, en los días 18
y 22 se pudieron igualar a los valores estimados.

Figura 53

Sprint Burndown Chart por Tareas (Estimación vs Real) - Sprint 1

Sprint Burndown (Estimacion vs Real)


180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por Tarea Real por Tarea

3.3.3.4 Actas de Daily


Las actas correspondientes a los Daily Meeting del equipo Scrum para el presente
Sprint se pueden visualizar en el Anexo 7.

Para evaluar si los impedimentos reportados en las reuniones realizadas podrían materializar
un riesgo o generar alguno se realizó la siguiente matriz:

Tabla 37
Matriz de Impedimentos del Sprint 1

Impacto

Mínimo Bajo Moderado Alto Catastrófico

116
Ajuste del cronograma de
trabajo para cuadrar con los
Impedimento
tiempos de entrega
correspondientes
Cruce de actividades del
cronograma con
levantamiento de
observaciones

Cruce de actividades del


Sprint con los entregables del
Paper

Mínimo: No genera riesgo

Bajo: No genera riesgo

Moderado: No genera riesgo

Alto: Genera riesgo

Catastrófico: Genera riesgo

Como se puede apreciar en la matriz precedente, los impedimentos reportados no han


tenido un impacto alto o catastrófico, razón por la cual no han materializado o generado
ningún riesgo.

3.3.4 Sprint Review


A continuación, se muestra a manera de resumen lo acordado en el Sprint Review del Sprint
1:

3.3.4.1 Lista de HU Completadas y No Completadas


A continuación, se muestra el listado de HU contempladas en el presente Sprint junto
a su estado correspondiente:

Tabla 38

Estado de las Historias de Usuario del Sprint 1

Identificador de la
Nombre de la Historia Estado
Historia

117
HU001 Predicción de riesgo escolar Terminado

HU002 Responder encuesta Terminado

HU003 Consultar estudiantes en riesgo Terminado

Como se puede visualizar en la tabla anterior, todas las HU contempladas para el


presente Sprint han sido completadas satisfactoriamente.

3.3.4.2 Identificación de Problemas Presentados en el Sprint


A continuación, se presenta la consolidación de los principales problemas
(impedimentos o riegos) encontrados en el desarrollo del presente Sprint:

Tabla 39
Problemas encontrados por HU del Sprint 1

Identificador de la
Problemas
Historia
Ajuste del cronograma de trabajo para cuadrar con los tiempos de entrega
correspondientes
HU001
Posible cambio de tema tras sospecha de que el tema de investigación ya
había sido registrado anteriormente
Cruce de actividades del cronograma con levantamiento de observaciones
HU002
Cruce de actividades del Sprint con los entregables del Paper

Cruce de actividades del cronograma con levantamiento de observaciones


HU003
Cruce de actividades del Sprint con los entregables del Paper

3.3.4.3 Feedback del PO y/o Stakeholders


Con respecto al Sprint 1, Grover Basas (PO) mostró su satisfacción con el avance
actual del proyecto, brindando su conformidad al incremento 1. Adicionalmente, se llegaron
a los siguientes acuerdos:

Tabla 40

Acuerdos con el PO para el Sprint 1

Acuerdos

118
Se acordó comunicar directamente al PO en caso surgieran problemas relacionados al
acceso de la información del negocio para solucionarlos a la brevedad

Se acordó mantener actualizado el Tablero Scrum en el Trello y darle acceso al PO para


que pueda visualizar en tiempo real los avances por Sprint

Se acordó mantener el Product Backlog actual

Se acordó que el PO enviará la Aprobación del Incremento 1 presentado de manera formal


para adjuntarlo al proyecto en el transcurso de la semana

Si bien es cierto que el PO se mostró conforme con el incremento 1, nos dejó el siguiente
Feedback:

• Las funcionalidades del sistema son correctas, sin embargo, sería bueno añadirle más
imágenes institucionales al sistema para optimizarlo a nivel visual.

3.3.4.4 Acta del Sprint Review


El Acta correspondiente al Sprint Review correspondiente al Sprint 1 se encuentra
adjunta en el Anexo 7.

3.3.5 Sprint Retrospective


A continuación, se muestra a manera de resumen lo acordado en el Sprint
Retrospective del Sprint 1:

3.3.5.1 Plan de Acciones de Mejora


A continuación, se muestra el Plan de Acciones de Mejora del Sprint:

Tabla 41

Plan de Acciones de Mejora Sprint 1

Objetivo Acción

Aumentar la comunicación con el PO durante


Mantener comunicado al PO ante cualquier el desarrollo de los Sprint
eventualidad de impacto alto en el desarrollo del
proyecto Dar acceso al PO al Tablero Scrum para que
pueda hacerle seguimiento en tiempo real a
los avances por Sprint
Cumplir con las fechas establecidas en el Agilizar la comunicación en el equipo Scrum
cronograma para evitar retraso en las entregas para facilitar el apoyo mutuo con las tareas

119
Enfocarse en una cosa a la vez y comunicar a
Reducir la cantidad de observaciones por asesoría la brevedad cuando se presente algún
inconveniente

3.3.5.2 Aprendizaje del Sprint


Para poder dar una vista más detallada a la retrospectiva del presente Sprint se realizó
el siguiente gráfico, en donde se mencionan los siguientes puntos:

• ¿Qué nos ayudó a seguir adelante?


• ¿Qué nos detuvo?
• ¿Cómo podríamos hacer las cosas de manera diferente?
• ¿Qué debemos hacer a continuación?

Figura 54
Retrospectiva Sprint 1

Como se puede apreciar, el presente Sprint nos deja como aprendizaje lo siguiente:

120
• Se debe tener más presente al PO durante el desarrollo de los Sprints.
• Se debe comunicar a la brevedad en caso se tenga alguna dificultad con las tareas
asignadas.
• Se debe cumplir con las fechas del cronograma para no afectar los entregables por
Sprint.

3.3.5.3 Acta del Sprint Retrospective


El Acta correspondiente al Sprint Retrospective correspondiente al Sprint 1 se
encuentra adjunta en el Anexo 7.

3.3.6 Refinamiento del Product Backlog


A continuación, se muestra a manera de resumen lo acordado en el Refinamiento del
Product Backlog del Sprint 1:

3.3.6.1 Gestión del Product Backlog


Se mantendrá el Product Backlog definido actualmente, este se puede visualizar en
el punto 3.1.7.

3.3.6.2 Resumen del Refinamiento del Product Backlog


En la reunión de Refinamiento, Grover Basas (PO), solicitó que se mantenga el
Product Backlog definido actualmente, este se puede visualizar en el punto 3.1.7.

3.3.6.3 Acta de Refinamiento del Product Backlog


El Acta correspondiente al Refinamiento del Product Backlog correspondiente al
Sprint 1 se encuentra adjunta en el Anexo 7.

3.4 Desarrollo de Sprint 2


En la presente sección se explica a detalle el proceso de elaboración del segundo
Sprint del proyecto incluyendo el Sprint Planning, la construcción del segundo incremento,
la consolidación de los Daily Meetings, el Sprint Review, Sprint Retrospective y el
refinamiento del Product Backlog.

El Sprint Goal definido para el presente Sprint es el siguiente: El usuario podrá


realizar el monitoreo de encuestas, descargar el reporte de estudiantes en riesgo, gestionar

121
las secciones correspondientes a su curso y gestionar las acciones a efectuar al momento de
realizar las predicciones de riesgo estudiantil.

3.4.1 Sprint Planning


En esta sección se presentan los puntos presentados en el Sprint Planning del
Proyecto correspondientes al Sprint 2.

3.4.1.1 Definición de Listo DoR y Definición de Terminado DoD


El Definition of Ready (DoR) del presente Sprint contempla lo siguiente, validando
que cada HU cumpla con el modelo INVEST:

Tabla 42
DoR del Sprint 2

Criterio ¿Cumple?

Las HU fueron revisadas, entendidas y aprobadas por el PO ✓

Las HU definidas son independientes con respecto a su funcionalidad y


pueden ser construidas totalmente en el presente Sprint (I) ✓

Las HU definidas son negociables y sus detalles serán acordados con el


PO por medio de reuniones (N) ✓

Las HU definidas aportan valor para el PO (V) ✓

Las HU definidas han sido estimadas por los desarrolladores (E) ✓

Las HU definidas son pequeñas y precisas (S) ✓

Las HU definidas pueden ser probadas (T) ✓

El Definition of Done (DoD) del presente Sprint contempla lo siguiente:

Tabla 43
DoD del Sprint 2

Criterio Estado de aceptación

122
Adecuación Funcional: Las funciones y propiedades satisfacen las
Aprobado
necesidades explícitas e implícitas del usuario

Eficiencia de Desempeño: El software no presenta problemas de


Aprobado
rendimiento pese a la concurrencia

Usabilidad: El software es fácil de usar y de aprender Aprobado

Estado de las HU en el tablero Scrum (Trello) al culminar el Sprint 2 Terminado

Conformidad del usuario para el segundo incremento Aprobado

Existencia de documentación técnica y funcional por componente


Terminado
desarrollado

Publicación en el sharepoint de los entregables técnicos del


Realizado
incremento con el número de versión correspondiente al Sprint

3.4.1.2 Selección de Historias de Usuario para el Sprint


Las HU a considerar para el presente Sprint son las siguientes:

Tabla 44

Historias de Usuario del Sprint 2


Descripción de la Historia de Usuario
Identificador Nombre de
Para (valor de
de la Historia la Historia Como (rol) Necesito (característica)
negocio)
Identificar a los
Monitorear Validar que los estudiantes hayan
HU004 Docente estudiantes en riesgo
encuesta respondido las encuestas
mediante el sistema
Generar Monitorear el
reporte de Generar reportes de estudiantes en rendimiento de los
HU005 Administrador
estudiantes riesgo por sección estudiantes por
en riesgo sección
Gestionar las
acciones que se
Gestionar Gestionar las acciones para los tomarán cuando se
HU006 Administrador
acciones estudiantes en riesgo conozcan a los
alumnos en riesgo de
desaprobar
Gestionar las secciones para
Generar las
Gestionar secundaria
HU007 Administrador secciones para el
Secciones Editar las secciones para
curso de Historia
secundaria

123
3.4.1.3 Validación de estimación realizada en el Inception Agile
Como se puede apreciar en el punto 3.1.7, para realizar la estimación de las HU en
el Product Backlog Base se empleó la técnica del Planning Poker, basándose en el esfuerzo
por punto de historia.

Para el desarrollo del presente Sprint se tomará en cuenta un total de 178 puntos
distribuidos de la siguiente manera:

• HU004: 55 puntos
• HU005: 34 puntos
• HU006: 55 puntos
• HU007: 34 puntos

La estimación en días del presente Sprint en base a los puntos por HU se puede apreciar
a detalle en el Sprint Backlog del punto 3.4.1.6.

3.4.1.4 Actualización de los Criterios de Aceptación de la Historias de Usuario


A continuación, se presentan los criterios de aceptación actualizados para las HU
consideradas en el presente Sprint:

Tabla 45

Criterios de Aceptación para las HU del Sprint 2

Identificador de
Nombre de la Historia Criterios de Aceptación
la Historia

Si se ingresa con un perfil diferente a docente, el


sistema no muestra la interfaz para realizar el
monitoreo de encuestas.
Cuando se cargue la interfaz, se listan todas las
secciones asignadas al docente correspondientes al
curso de Historia.
HU004 Monitorear encuesta Cuando se cargue la interfaz, el sistema muestra un
botón consultar.
Cuando se seleccione el botón de consulta, el sistema
consulta a los estudiantes de la sección elegida
indicando si han completado o no la encuesta y se
envía un correo a los padres de los estudiantes que aún
no hayan completado la encuesta.

124
Si se ingresa con un perfil diferente al de
administrador, el sistema no muestra la interfaz para
generar reporte de estudiantes en riesgo.
Cuando se cargue la interfaz, se listan todas las
secciones asignadas al docente correspondientes al
curso de Historia.
Cuando se cargue la interfaz, el sistema muestra los
botones de consultar y exportar.
Generar reporte de
HU005
estudiantes en riesgo Cuando se selecciona el botón de consulta, el sistema
muestra como resultado los valores obtenidos en la
predicción de los estudiantes en riesgo de reprobar el
curso de Historia dictado por el docente en base a la
sección elegida.
Cuando se selecciona el botón de exportar, el sistema
descarga un documento Excel con el reporte de la
consulta de la predicción realizada para la sección
elegida.
Si se ingresa con un perfil diferente al de
administrador, el sistema no muestra la interfaz para
gestionar acciones.
Cuando se cargue la interfaz, el sistema muestra un
listado con las acciones registradas existentes con los
botones de editar y eliminar.
Cuando se cargue la interfaz, el sistema muestra los
botones de guardar y detalle.
Cuando se seleccione el botón guardar, el sistema
Gestionar acciones registra la nueva acción y la añade al listado de la
HU006
interfaz.
Cuando se seleccione el botón detalle, el sistema
muestra el detalle de la acción seleccionada.
Cuando se seleccione el botón editar de una acción, el
sistema permite modificar la acción seleccionada.
Cuando se seleccione el botón eliminar de una acción,
el sistema permite eliminar la acción seleccionada,
siempre y cuando no sea la principal asociada a la
predicción.
Si se ingresa con un perfil diferente al de
administrador, el sistema no muestra la interfaz para
gestionar secciones.
Cuando se cargue la interfaz, el sistema muestra un
listado con las secciones registradas existentes con los
HU007 Gestionar Secciones botones de editar y eliminar.
Cuando se cargue la interfaz, el sistema muestra los
botones de guardar y detalle.
Cuando se seleccione el botón guardar, el sistema
registra la nueva sección y la añade al listado de la
interfaz.

125
Cuando se seleccione el botón detalle, el sistema
muestra el detalle de la sección seleccionada.
Cuando se seleccione el botón editar de una sección,
el sistema permite modificar la sección seleccionada.
Cuando se seleccione el botón eliminar de una
sección, el sistema permite eliminar la sección
seleccionada.

3.4.1.5 Listado de tareas técnicas por historia de usuario


A continuación, se presenta el listado de las tareas técnicas por HU del Sprint 2:

Tabla 46
Tareas técnicas por HU para el Sprint 2

Identificador de
Nombre de la Historia Tareas
la Historia

HU004 Monitorear encuesta HU004-01 - Creación de interfaz para


monitoreo de encuesta
HU004-02 - Desarrollo de la funcionalidad del
monitoreo de encuesta
HU004-03 - Implementación de validaciones
para el monitoreo de encuesta
HU005 Generar reporte de HU005-01 - Creación del menú de
estudiantes en riesgo administrador
HU005-02 - Creación de la interfaz para
generar el reporte de estudiantes en riesgo
HU005-03 - Desarrollo de la funcionalidad
para generar el reporte de estudiantes en
riesgo
HU005-04 - Implementación de validaciones
para generar reporte de estudiantes en riesgo
HU006 Gestionar acciones HU006-01 - Creación de la interfaz para
gestionar acciones
HU006-02 - Desarrollo de la funcionalidad
para gestionar acciones
HU006-03 - Implementación de validaciones
para gestionar las acciones
HU007 Gestionar Secciones HU007-01 - Creación de la interfaz para
gestionar secciones
HU007-02 - Desarrollo de la funcionalidad
para gestionar secciones

126
HU007-03 - Implementación de validaciones
para gestionar las secciones

127
3.4.1.6 Sprint Backlog
El Sprint Backlog correspondiente al segundo Sprint se presenta a continuación:

Tabla 47
Sprint Backlog del Sprint 2

Identificador de Fecha de Inicio Fecha de Fin


Nombre de la Historia Tareas Responsable
la Historia Estimada Estimada

HU004-01 - Creación de interfaz para


Scrum Team 9/09/2022 12/09/2022
monitoreo de encuesta
HU004-02 - Desarrollo de la
HU004 Monitorear encuesta funcionalidad del monitoreo de Scrum Team 12/09/2022 14/09/2022
encuesta
HU004-03 - Implementación de
validaciones para el monitoreo de Scrum Team 15/09/2022 15/09/2022
encuesta
HU005-01 - Creación del menú de
Scrum Team 16/09/2022 16/09/2022
administrador
HU005-02 - Creación de la interfaz
para generar el reporte de estudiantes en Scrum Team 16/09/2022 20/09/2022
Generar reporte de riesgo
HU005 HU005-03 - Desarrollo de la
estudiantes en riesgo
funcionalidad para generar el reporte de Scrum Team 20/09/2022 23/09/2022
estudiantes en riesgo
HU005-04 - Implementación de
validaciones para generar reporte de Scrum Team 23/09/2022 23/09/2022
estudiantes en riesgo
HU006-01 - Creación de la interfaz
HU006 Gestionar acciones Scrum Team 23/09/2022 26/09/2022
para gestionar acciones

128
HU006-02 - Desarrollo de la
Scrum Team 26/09/2022 28/09/2022
funcionalidad para gestionar acciones
HU006-03 - Implementación de
Scrum Team 28/09/2022 30/09/2022
validaciones para gestionar las acciones
HU007-01 - Creación de la interfaz
Scrum Team 30/09/2022 4/10/2022
para gestionar secciones
HU007-02 - Desarrollo de la
HU007 Gestionar Secciones Scrum Team 4/10/2022 7/10/2022
funcionalidad para gestionar secciones
HU007-03 - Implementación de
validaciones para gestionar las Scrum Team 7/10/2022 10/10/2022
secciones

129
3.4.1.7 Actualización del Tablero Scrum
A continuación, se muestra el Tablero Scrum actualizado en Trello correspondiente
al segundo Sprint:

Figura 55

Tablero Scrum Sprint 2 Actualizado

Nota. La figura muestra el tablero Scrum correspondiente al Sprint 2 actualizado. Captura


de pantalla tomada de “Trello”, 2022, (https://trello.com/b/FuCATIe8/tablero-scrum-base).

3.4.1.8 Resumen del Sprint Planning


El resumen correspondiente al Sprint Planning del presente Sprint se puede visualizar
en el Anexo 8.

3.4.2 Construcción del Sprint 2


En esta sección se presentan los prototipos validados por el PO, la gestión del Sprint
Backlog, la documentación técnica y funcional correspondiente a los componentes
implementados, los escenarios de prueba, los casos de prueba, los resultados de las pruebas
y la gestión de acuerdos correspondientes al Sprint 2.

3.4.2.1 Prototipos validados por el PO


A continuación, se presentan los prototipos validados con el PO correspondientes al
Sprint 2 por HU:

130
Figura 56

HU004 - Monitorear Encuestas

Figura 57

HU005 – Generar Reporte de Estudiantes en Riesgo

131
Figura 58

HU006 – Gestionar Acciones

Figura 59

HU007 – Gestionar Secciones

El acta de aprobación de los prototipos por parte del PO para el presente Sprint se
puede visualizar en el Anexo 8.

132
3.4.2.2 Gestión del Sprint Backlog
El desarrollo del presente Sprint se realizó respetando las HU y tareas establecidas
en el Sprint Backlog del punto 3.4.1.6. y la gestión por cada una de ellas comparando lo
estimado vs lo real se detalla en el Sprint Burndown Chart del punto 3.4.3.3.

A continuación, se muestra la gestión del Tablero Scrum realizada en Trello para el


presente Sprint:

Figura 60
Gestión del Tablero Scrum para el Sprint 2

Nota. La figura muestra la gestión del tablero Scrum correspondiente al Sprint 2. Captura de
pantalla tomada de “Trello”, 2022, (https://trello.com/b/FuCATIe8/tablero-scrum-base).

3.4.2.3 Documentación funcional y técnica de los componentes construidos


La documentación técnica y funcional correspondientes a las HU contempladas en
el Sprint 2 se encuentra visible para los miembros del equipo del proyecto en el repositorio
compartido para el presente Sprint.

3.4.2.4 Definición de Escenarios y Casos de Prueba


A continuación, se muestran los escenarios y casos de prueba definidos por HU en
base a los criterios de aceptación establecidos por cada una de ellas:

133
Tabla 48

Escenarios y Casos de Prueba definidos para el Sprint 2


ID Caso
Identificador Datos de
HU de Caso de Prueba Resultado Esperado
de la HU Prueba
Prueba
Perfil
Ingresar con un perfil La opción para realizar
estudiante y
distinto a docente monitoreo de
administrador
CP001 para realizar el encuestas no debe
monitoreo de estar habilitada para el
Prueba
encuestas perfil
manual
En el selector de
secciones se deben
Perfil
listar correctamente las
Ingresar a la interfaz docente
secciones asignadas al
CP002 de monitoreo de
docente
encuestas Prueba
manual
Se debe mostrar el
botón “Consultar”
Se deben listar los
Monitorear
HU004 estudiantes junto a un
Encuesta
indicador de si
respondieron o no la
Perfil
encuesta en base al
Realizar una consulta docente
filtro de sección
CP003 para monitorear
seleccionado
encuestas Prueba
manual
Se debe enviar correo
al padre de familia de
los estudiantes que aún
no llenen la encuesta
Realizar monitoreo El sistema debe 50 usuarios
de encuestas con permitir más de 40 concurrentes
CP004 envío de correo desde peticiones
JMeter con más de 40 concurrentes sin Prueba
usuarios concurrentes presentar fallos automatizada
Perfil
Ingresar con un perfil La opción generar el
estudiante y
distinto a reporte de estudiantes
docente
CP005 administrador para en riesgo no debe estar
generar el reporte de habilitada para el
Prueba
estudiantes en riesgo perfil
manual
En el selector de
secciones se deben
Generar listar correctamente las Perfil
reporte de Ingresar a la interfaz secciones asignadas al administrador
HU005
estudiantes CP006 de generar reporte de docente
en riesgo estudiantes en riesgo Prueba
Se deben mostrar los manual
botones “Consultar” y
“Exportar”
Se deben listar los Perfil
Realizar una consulta
estudiantes en riesgo administrador
de estudiantes para
CP007 de reprobar en base al
generar el reporte de
filtro de sección Prueba
estudiantes en riesgo
seleccionado manual

134
Se debe descargar un
Perfil
documento Excel con
administrador
Generar reporte de el reporte de los
CP008
estudiantes en riesgo estudiantes en riesgo
Prueba
en base a la sección
manual
elegida
Perfil
Ingresar con un perfil La opción gestionar estudiante y
distinto a acciones no debe estar docente
CP009
administrador para habilitada para el
gestionar acciones perfil Prueba
manual
En una tabla se deben
mostrar las acciones
registradas
Perfil
previamente con los
administrador
Ingresar a la interfaz botones editar y
CP010
de gestionar acciones eliminar
Prueba
manual
Se deben mostrar los
botones “Guardar” y
“Detalle”
Se debe registrar la
nueva acción y
mostrar mensaje de Perfil
registro satisfactorio administrador
Registrar una nueva
CP011
acción
La nueva acción debe Prueba
añadirse al listado de manual
acciones principal de
la interfaz
Gestionar Perfil
HU006 Se debe refrescar la
Acciones administrador
Ver detalle de lista con el detalle de
CP012
acciones todas las acciones
Prueba
registradas
manual
Se apertura un pop-up
para actualizar la
acción registrada

Cuando se confirme la
Perfil
edición se debe
administrador
mostrar un mensaje de
CP013 Editar una acción
actualización
Prueba
satisfactoria
manual
La acción actualizada
debe aparecer en el
listado de acciones
principal de la interfaz
Se elimina la acción
seleccionada y se
Perfil
muestra un mensaje de
administrador
eliminación exitosa
CP014 Eliminar una acción
Prueba
No se debe permitir
manual
eliminar la acción
principal de envío de

135
correo asociada a la
predicción

La acción eliminada
debe desaparecer del
listado de acciones
principal de la interfaz
Perfil
Ingresar con un perfil La opción gestionar estudiante y
distinto a secciones no debe docente
CP015
administrador para estar habilitada para el
gestionar secciones perfil Prueba
manual
En una tabla se deben
mostrar las secciones
registradas
Perfil
previamente con los
Ingresar a la interfaz administrador
botones editar y
CP016 de gestionar
eliminar
Gestionar secciones Prueba
HU007
Secciones manual
Se deben mostrar los
botones “Guardar” y
“Detalle”
Se debe registrar la
nueva sección y
mostrar mensaje de Perfil
registro satisfactorio administrador
Registrar una nueva
CP017
sección
La nueva sección debe Prueba
añadirse al listado de manual
secciones principal de
la interfaz
Perfil
Se debe refrescar la
administrador
Ver detalle de lista con el detalle de
CP018
secciones todas las secciones
Prueba
registradas
manual
Se apertura un pop-up
para actualizar la
sección registrada

Cuando se confirme la
Perfil
edición se debe
administrador
mostrar un mensaje de
CP019 Editar una sección
actualización
Prueba
satisfactoria
manual
La sección actualizada
debe aparecer en el
listado de secciones
principal de la interfaz
Se elimina la sección
seleccionada y se Perfil
muestra un mensaje de administrador
CP020 Eliminar una sección eliminación exitosa
Prueba
La sección eliminada manual
debe desaparecer del

136
listado de secciones
principal de la interfaz

3.4.2.5 Resultados de Pruebas Internas según los escenarios definidos, los criterios de
aceptación y la Definición de Terminado (DoD)
Los resultados obtenidos posterior a la ejecución de las pruebas internas y con
respecto a la DoD se sustentan en el punto 4.1.2 orientado al Sprint 2 y la gestión del tablero
Scrum del Trello.

A continuación, se muestra de manera resumida el cumplimiento del DoD del


presente Sprint:

Tabla 49

Checklist de cumplimiento del DoD del Sprint 2

Criterio ¿Cumplido?

Adecuación Funcional: Las funciones y propiedades satisfacen las ✓


necesidades explícitas e implícitas del usuario

Eficiencia de Desempeño: El software no presenta problemas de



rendimiento pese a la concurrencia

Usabilidad: El software es fácil de usar y de aprender ✓

Estado de las HU en el tablero Scrum (Trello) al culminar el Sprint 2 ✓

Conformidad del usuario para el segundo incremento ✓

Existencia de documentación técnica y funcional por componente ✓


desarrollado

Publicación en el sharepoint de los entregables técnicos del



incremento con el número de versión correspondiente al Sprint

137
El cumplimiento de los puntos del plan de calidad definidos en el punto 5.1.4.4. por
Sprint basados en la ISO/IEC-25010 para la “Calidad del Producto Software”, se puede
visualizar en el punto 4.1.2

La medición de las métricas de calidad definidas en base al PMBOK


correspondientes al presente Sprint se pueden visualizar en el punto 5.2.2.

En base a los resultados obtenidos, se puede dar por cumplido al Sprint Goal
correspondiente al Sprint 2, dado que, el usuario a través de la interfaz puede monitorear que
los estudiantes completen las encuestas enviando un correo de recordatorio automático a
aquellos que no la hayan completado, también puede descargar el reporte de estudiantes
predichos como riesgo además de gestionar las secciones y acciones en el sistema.

3.4.2.6 Gestión de Acuerdos del Sprint


A continuación, se muestra la consolidación de acuerdos obtenidos para el presente
Sprint posterior a las reuniones realizadas por el equipo Scrum:

✓ El inicio formal del Sprint 2 será el día 08/09/2022


✓ Se mantendrán los roles definidos al inicio del proyecto, en donde Grover Basas
toma el rol de Product Owner, Mirko Bermudez toma el rol de Team Scrum y
Diana Hidalgo toma los roles de Team Scrum/Scrum Master
✓ Se definieron y priorizaron las HU en el Product Backlog considerando para el
Sprint 2 la HU004 (Monitorear encuesta), la HU005 (Generar reporte de
estudiantes en riesgo), la HU006 (Gestionar acciones) y la HU007 (Gestionar
secciones)
✓ Se acordó realizar las pruebas en base a los criterios de aceptación de cada una de
las historias de usuario
✓ Se acordó pasar a “Terminado” una HU en el Trello solo si ha pasado
satisfactoriamente todas las pruebas

3.4.3 Daily Meeting


En esta sección se presentan los puntos a considerar en los Daily Meeting del
Proyecto correspondientes al Sprint 2.

3.4.3.1 Frecuencia de Reuniones


Para el presente Sprint se tienen programadas las reuniones daily los días lunes y
viernes en horario de 9:30pm a 9:45pm.

138
3.4.3.2 Gestión del Tablero para el Sprint
Cada integrante del equipo Scrum es responsable de gestionar y evidenciar en el Tablero
Scrum del Trello las actividades asignadas por HU para el Sprint. Además, tiene como deber
asistir a los daily meeting y responder las siguientes preguntas:

• ¿Qué hiciste ayer?


• ¿Qué harás hoy?
• ¿Hay impedimentos en tu camino?

Asimismo, todas las respuestas deben quedar evidenciadas en actas, las cuales se podrán
visualizar en el Anexo 8.

139
3.4.3.3 Sprint Burndown Chart
En esta sección se presenta el Burndown Chart correspondiente al presente Sprint.

En la siguiente tabla se observa de manera detallada la estimación por tareas y puntos de historia correspondientes al Sprint 2. Dicha estimación
es la esperada o ideal para llevar a cabo el segundo Sprint.

En la siguiente tabla se observa el detalle de la estimación por puntos de HU correspondiente al Sprint 2.

Tabla 50
Burndown Chart - Estimación Esperada por HU del Sprint 2
Estimado Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Estado por HU 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

4 HU004 Scrum Team Terminado 55 55

5 HU005 Scrum Team Terminado 34 34

6 HU006 Scrum Team Terminado 55 55

7 HU007 Scrum Team Terminado 34 34

Total 178 178 178 178 178 178 178 123 123 123 123 123 89 89 89 89 89 89 34 34 34 34 0

140
En la siguiente tabla se observa de manera detallada la estimación por tareas y puntos de historia correspondientes al Sprint 2. Dicha
estimación es la esperada o ideal para llevar a cabo el segundo Sprint.

Tabla 51

Burndown Chart - Estimación Esperada por Tareas del Sprint 2


Estimado
Estimado por Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Tarea Estado por HU Tarea 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

HU004-01 - Creación de
Scrum
interfaz para monitoreo de Terminado
Team encuesta 15 15

HU004-02 - Desarrollo de la
Scrum
4 HU004 funcionalidad del monitoreo de Terminado 55
Team encuesta 25 25

HU004-03 - Implementación de
Scrum
validaciones para el monitoreo Terminado
Team de encuesta 15 15

Scrum HU005-01 - Creación del menú


Terminado
Team de administrador
4 4

HU005-02 - Creación de la
Scrum
5 HU005 interfaz para generar el reporte Terminado 34
Team de estudiantes en riesgo 9 9

HU005-03 - Desarrollo de la
Scrum
funcionalidad para generar el Terminado
Team reporte de estudiantes en riesgo 14 14

141
HU005-04 - Implementación de
Scrum validaciones para generar Terminado
Team reporte de estudiantes en riesgo 7 7

Scrum HU006-01 - Creación de la


Terminado
Team interfaz para gestionar acciones
15 15

HU006-02 - Desarrollo de la
Scrum
6 HU006 funcionalidad para gestionar Terminado 55
Team acciones 25 25

HU006-03 - Implementación de
Scrum
validaciones para gestionar las Terminado
Team acciones 15 15

HU007-01 - Creación de la
Scrum
interfaz para gestionar Terminado
Team secciones 9 9

HU007-02 - Desarrollo de la
Scrum
7 HU007 funcionalidad para gestionar Terminado 34
Team secciones 18 18

HU007-03 - Implementación de
Scrum
validaciones para gestionar las Terminado
Team secciones 7 7

Total 178 178 178 163 163 163 138 138 123 119 110 110 96 89 89 74 74 49 34 25 25 25 7 0

A continuación, se muestra el avance real monitoreado para el desarrollo del Sprint 2 por HU y por tareas.

142
Tabla 52

Burndown Chart - Avance Real por HU del Sprint 2


Real por Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Estado HU 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

4 HU004 Scrum Team Terminado 55 55

5 HU005 Scrum Team Terminado 34 34

6 HU006 Scrum Team Terminado 55 55

7 HU007 Scrum Team Terminado 34 34

Total 178 178 178 178 178 178 178 123 123 123 89 89 89 89 34 34 0 0 0 0 0 0 0

Tabla 53

Burndown Chart - Avance Real por Tareas del Sprint 2


Real Real
por por Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Tarea Estado HU Tarea 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

HU004-01 - Creación de
Scrum
interfaz para monitoreo de Terminado
Team encuesta 15 15
4 HU004 55
HU004-02 - Desarrollo de la
Scrum
funcionalidad del monitoreo de Terminado
Team encuesta 25 25

143
HU004-03 - Implementación de
Scrum validaciones para el monitoreo Terminado
Team de encuesta 15 15

Scrum HU005-01 - Creación del menú


Terminado
Team de administrador
4 4

HU005-02 - Creación de la
Scrum
interfaz para generar el reporte Terminado
Team de estudiantes en riesgo 9 9
5 HU005 34
HU005-03 - Desarrollo de la
Scrum
funcionalidad para generar el Terminado
Team reporte de estudiantes en riesgo 14 14

HU005-04 - Implementación de
Scrum
validaciones para generar Terminado
Team reporte de estudiantes en riesgo 7 7

Scrum HU006-01 - Creación de la


Terminado
Team interfaz para gestionar acciones
15 15

HU006-02 - Desarrollo de la
Scrum
6 HU006 funcionalidad para gestionar Terminado 55
Team acciones 25 25

HU006-03 - Implementación de
Scrum
validaciones para gestionar las Terminado
Team acciones 15 15

HU007-01 - Creación de la
Scrum
7 HU007 interfaz para gestionar Terminado 34
Team secciones 9 9

144
HU007-02 - Desarrollo de la
funcionalidad para gestionar Terminado
secciones 18 18

HU007-03 - Implementación de
Scrum
validaciones para gestionar las Terminado
Team secciones 7 7

Total 178 178 178 178 163 163 138 138 119 119 96 74 74 49 49 25 7 0 0 0 0 0 0 0

145
Como se puede observar en el siguiente gráfico, el Sprint Burndown estimado por
puntos de HU correspondiente al presente Sprint, muestra una línea base de esfuerzo basada
en la duración de la etapa de construcción (22 días) en la cual se puede visualizar que, entre
los días 1-7, 8-12, 13-18 y 19-22 se necesitará un esfuerzo constante por parte del equipo
Scrum para poder cumplir con lo estimado, no obstante, entre los días 7-8, 12-13, 18-19 y
22 se observa un cambio drástico en el esfuerzo entre intervalos, lo cual nos advierte de la
aparición de posibles riesgos que dificulten cumplir el objetivo al finalizar el Sprint.

Figura 61

Sprint Burndown Chart por HU- Sprint 2

Sprint Burndown
180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por HU Lineal (Estimado por HU)

Si se detalla por tareas, se puede apreciar con mayor claridad el esfuerzo constante
entre los intervalos de tiempo mencionados en el análisis precedente necesario para cumplir
satisfactoriamente con los objetivos del presente Sprint.

146
Figura 62

Sprint Burndown Chart por Tareas - Sprint 2

Sprint Burndown
180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por Tarea Lineal (Estimado por Tarea)

En la siguiente figura se pueden apreciar las diferencias existentes entre el esfuerzo


y tiempo estimado por puntos de HU vs el real. Se puede observar que hasta el día 8 el avance
real y el esfuerzo estimado tuvieron valores coincidentes, sin embargo, a partir del día 10,
los valores del avance real fueron menores a lo estimado, llegando a culminarse la
construcción del Sprint en el día 16 la cual estaba pronosticada para el día 22.

Figura 63

Sprint Burndown Chart por HU (Estimación vs Real) - Sprint 2

Sprint Burndown (Estimacion vs Real)


180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por HU Real por HU

147
A nivel de tareas, se pueden apreciar con mayor detalle las diferencias existentes
entre el esfuerzo y tiempo estimado vs el real. Si bien es cierto que los resultados muestran
que el avance real fue mucho mejor que lo estimado, también se visualiza que, al inicio del
Sprint, el avance por tarea real estuvo por detrás de lo estimado, lo cual no se visualiza
claramente en el gráfico precedente.

Figura 64

Sprint Burndown Chart por Tareas (Estimación vs Real) - Sprint 2

Sprint Burndown (Estimacion vs Real)


180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por Tarea Real por Tarea

3.4.3.4 Acta de Daily


Las actas correspondientes a los Daily Meeting del equipo Scrum para el presente
Sprint se pueden visualizar en el Anexo 8.

Para evaluar si los impedimentos reportados en las reuniones realizadas podrían


materializar un riesgo o generar alguno se realizó la siguiente matriz:

Tabla 54
Matriz de Impedimentos del Sprint 2

Impacto

Mínimo Bajo Moderado Alto Catastrófico

148
Cruce de actividades del
cronograma con
levantamiento de
observaciones
Impedimento

Cruce de tareas técnicas con


documentación

Sobrecarga de tareas porque


se debe culminar el Sprint
antes de la fecha estimada

Mínimo: No genera riesgo

Bajo: No genera riesgo

Moderado: No genera riesgo

Alto: Genera riesgo

Catastrófico: Genera riesgo

Como se puede apreciar en la matriz precedente, los impedimentos reportados no han


tenido un impacto alto o catastrófico, razón por la cual no han materializado o generado
ningún riesgo.

3.4.4 Sprint Review


A continuación, se muestra a manera de resumen lo acordado en el Sprint Review
del Sprint 2:

3.4.4.1 Lista de HU Completadas y No Completadas


A continuación, se muestra el listado de HU contempladas en el presente Sprint junto
a su estado correspondiente:

Tabla 55
Estado de las Historias de Usuario del Sprint 2

Identificador de la
Nombre de la Historia Estado
Historia

HU004 Monitorear encuesta Terminado

149
HU005 Generar reporte de estudiantes en riesgo Terminado

HU006 Gestionar acciones Terminado

Gestionar secciones
HU007 Terminado

Como se puede visualizar en la tabla anterior, todas las HU contempladas para el


presente Sprint han sido completadas satisfactoriamente.

3.4.4.2 Identificación de Problemas Presentados en el Sprint


A continuación, se presenta la consolidación de los principales problemas
(impedimentos o riegos) encontrados en el desarrollo del presente Sprint:

Tabla 56
Problemas encontrados por HU del Sprint 2

Identificador de la
Problemas
Historia

HU004 Cruce de actividades del cronograma con levantamiento de observaciones

Cruce de actividades del cronograma con levantamiento de observaciones


HU005
Cruce de tareas técnicas con documentación
Cruce de tareas técnicas con documentación
HU006
Sobrecarga de tareas porque se debe culminar el Sprint antes de la fecha
estimada

Sobrecarga de tareas porque se debe culminar el Sprint antes de la fecha


HU007
estimada

3.4.4.3 Feedback del PO y/o Stakeholders


Con respecto al Sprint 2, Grover Basas (PO) mostró su satisfacción con el avance
actual del proyecto, brindando su conformidad al incremento 2. Adicionalmente, se llegaron
a los siguientes acuerdos:

150
Tabla 57

Acuerdos con el PO para el Sprint 2

Acuerdos

Se acordó comunicar directamente al PO en caso surgieran problemas relacionados al


acceso de la información del negocio para solucionarlos a la brevedad

Se acordó mantener actualizado el Tablero Scrum en el Trello para que el PO pueda


visualizar en tiempo real los avances por Sprint

Se acordó mantener el Product Backlog actual

Se acordó que el PO enviará la Aprobación del Incremento 2 presentado de manera formal


para adjuntarlo al proyecto en el transcurso de la semana

Se acordó optimizar el sistema a nivel visual con más imágenes institucionales al finalizar
el tercer Sprint

Si bien es cierto que el PO se mostró conforme con el incremento 2, nos dejó el siguiente
Feedback:

• Las funcionalidades del sistema son correctas, sin embargo, aún no visualizo muchas
imágenes institucionales en el sistema, sería bueno añadirle más íconos del logo en
las pantallas para optimizarlo a nivel visual y poder compartirlo con mis colegas y
superiores.

3.4.4.4 Acta del Sprint Review


El Acta correspondiente al Sprint Review correspondiente al Sprint 2 se encuentra
adjunta en el Anexo 8.

3.4.5 Sprint Retrospective


A continuación, se muestra a manera de resumen lo acordado en el Sprint
Retrospective del Sprint 2:

3.4.5.1 Plan de Acciones de Mejora


A continuación, se muestra el Plan de Acciones de Mejora del Sprint:

151
Tabla 58

Plan de Acciones de Mejora Sprint 2

Objetivo Acción

Cumplir con la entrega de los entregables en los Optimizar la organización de tiempos por
tiempos establecidos entregable

Optimizar las fechas de culminación por HU Agilizar la construcción y


documentación por HU

Disminuir el tiempo de atención por observación Delegar tareas y optimizar el tiempo de


reportada en las asesorías atención de observaciones

3.4.5.2 Aprendizaje del Sprint


Para poder dar una vista más detallada a la retrospectiva del presente Sprint se realizó
el siguiente gráfico, en donde se mencionan los siguientes puntos:

• ¿Qué nos ayudó a seguir adelante?


• ¿Qué nos detuvo?
• ¿Cómo podríamos hacer las cosas de manera diferente?
• ¿Qué debemos hacer a continuación?

152
Figura 65

Retrospectiva Sprint 2

Como se puede apreciar, el presente Sprint nos deja como aprendizaje lo siguiente:

• Se debe optimizar la organización de tiempos por entregable (documento y paper)


• Se debe agilizar la construcción y documentación por HU
• Se debe cumplir con las fechas del cronograma para no afectar los entregables por
Sprint.
• Se debe delegar tareas y optimizar el tiempo de atención de observaciones

3.4.5.3 Acta del Sprint Retrospective


El Acta correspondiente al Sprint Retrospective correspondiente al Sprint 2 se
encuentra adjunta en el Anexo 8.

153
3.4.6 Refinamiento del Product Backlog
A continuación, se muestra a manera de resumen lo acordado en el Refinamiento del
Product Backlog del Sprint 2:

3.4.6.1 Gestión del Product Backlog


Se mantendrá el Product Backlog definido actualmente, este se puede visualizar en
el punto 3.1.7.

3.4.6.2 Resumen del Refinamiento del Product Backlog


En la reunión de Refinamiento, Grover Basas (PO), solicitó que se mantenga el
Product Backlog definido actualmente, este se puede visualizar en el punto 3.1.7.

3.4.6.3 Acta de Refinamiento del Product Backlog


El Acta correspondiente al Refinamiento del Product Backlog correspondiente al
Sprint 2 se encuentra adjunta en el Anexo 8.

3.5 Desarrollo del Sprint 3


En la presente sección se explica a detalle el proceso de elaboración del tercer Sprint
del proyecto incluyendo el Sprint Planning, la construcción del segundo incremento, la
consolidación de los Daily Meetings, el Sprint Review, Sprint Retrospective y el
refinamiento del Product Backlog.

El Sprint Goal definido para el presente Sprint es el siguiente: El usuario podrá


autenticar su ingreso al sistema, generar tips de estudio para reforzar el aprendizaje de los
estudiantes y efectuar la gestión de usuarios.

3.5.1 Sprint Planning


En esta sección se presentan los puntos presentados en el Sprint Planning del
Proyecto correspondientes al Sprint 3.

3.5.1.1 Definición de Listo DoR y Definición de Terminado DoD


El Definition of Ready (DoR) del presente Sprint contempla lo siguiente, validando
que cada HU cumpla con el modelo INVEST:

154
Tabla 59

DoR del Sprint 3

Criterio ¿Cumple?

Las HU fueron revisadas, entendidas y aprobadas por el PO ✓

Las HU definidas son independientes con respecto a su funcionalidad y


pueden ser construidas totalmente en el presente Sprint (I) ✓

Las HU definidas son negociables y sus detalles serán acordados con el


PO por medio de reuniones (N) ✓

Las HU definidas aportan valor para el PO (V) ✓

Las HU definidas han sido estimadas por los desarrolladores (E) ✓

Las HU definidas son pequeñas y precisas (S) ✓

Las HU definidas pueden ser probadas (T) ✓

El Definition of Done (DoD) del presente Sprint contempla lo siguiente:

Tabla 60

DoD del Sprint 3

Criterio Estado de aceptación

Adecuación Funcional: Las funciones y propiedades satisfacen las


Aprobado
necesidades explícitas e implícitas del usuario

Eficiencia de Desempeño: El software no presenta problemas de


Aprobado
rendimiento pese a la concurrencia

Usabilidad: El software es fácil de usar y de aprender Aprobado

Estado de las HU en el tablero Scrum (Trello) al culminar el Sprint 3 Terminado

155
Conformidad del usuario para el tercer incremento Aprobado

Existencia de documentación técnica y funcional por componente


Terminado
desarrollado

Publicación en el sharepoint de los entregables técnicos del


Realizado
incremento con el número de versión correspondiente al Sprint

3.5.1.2 Selección de Historias de Usuario para el Sprint


Las HU a considerar para el presente Sprint son las siguientes:

Tabla 61

Historias de Usuario del Sprint 3


Descripción de la Historia de Usuario
Identificador Nombre de
Para (valor de
de la Historia la Historia Como (rol) Necesito (característica)
negocio)
Apoyar a los
Generar tips Publicar tips de estudio para los estudiantes a
HU008 Docente
de estudio estudiantes optimizar su
desempeño
Gestionar a los
Gestionar Dar de alta a un usuario. usuarios que
HU009 Administrador
Usuarios Dar de baja a un usuario. ingresarán a la
aplicación web
Administrador, Acceder a la aplicación web
Acceso del Realizar gestiones
HU010 Docente, mediante el uso de mis
sistema pertinentes
Estudiante credenciales.
Administrador, Proteger mi cuenta
HU011 Cerrar sesión Docente, Cerrar sesión en la aplicación web cuando ya no utilice
Estudiante la aplicación
Actualizar mis datos
Administrador,
Editar datos en caso de
HU012 Docente, Editar mis datos personales
usuario equivocación o
Estudiante
cambio

3.5.1.3 Validación de estimación realizada en el Inception Agile


Como se puede apreciar en el punto 3.1.7, para realizar la estimación de las HU en
el Product Backlog Base se empleó la técnica del Planning Poker, basándose en el esfuerzo
por punto de historia.

Para el desarrollo del presente Sprint se tomará en cuenta un total de 186 puntos distribuidos
de la siguiente manera:

• HU008: 55 puntos

156
• HU009: 55 puntos
• HU010: 21 puntos
• HU011: 21 puntos
• HU012: 34 puntos

La estimación en días del presente Sprint en base a los puntos por HU se puede apreciar
a detalle en el Sprint Backlog del punto 3.5.1.6.

3.5.1.4 Actualización de los Criterios de Aceptación de la Historias de Usuario


A continuación, se presentan los criterios de aceptación actualizados para las HU
consideradas en el presente Sprint:

Tabla 62

Criterios de Aceptación para las HU del Sprint 3

Identificador de
Nombre de la Historia Criterios de Aceptación
la Historia

Si se ingresa con un perfil diferente a docente, el sistema


no muestra la interfaz para generar tips de estudio.
Cuando se cargue la interfaz, el sistema muestra el botón
adjuntar archivo y guardar.
HU008 Generar tips de estudio Cuando se seleccione el botón adjuntar archivo, el
sistema permitirá subir un archivo .jpg.
Cuando se seleccione el botón guardar, el sistema
almacenará los datos y el documento adjunto mostrando
un mensaje de registro satisfactorio.
Si se ingresa con un perfil diferente al de administrador,
el sistema no muestra la interfaz para gestionar usuarios.
Cuando se cargue la interfaz, el sistema muestra un
listado con los usuarios existentes con los botones de
editar y eliminar.
Cuando se cargue la interfaz, el sistema muestra el botón
nuevo usuario.
HU009 Gestionar Usuarios Cuando se selecciona el botón de nuevo usuario, el
sistema muestra otra interfaz en donde se puede registrar
un nuevo usuario.
Cuando se selecciona el botón editar, el sistema muestra
otra pantalla donde se puede editar el usuario.
Cuando se selecciona el botón eliminar, el sistema
muestra un mensaje de confirmación previo a la
eliminación del usuario.

157
Cuando se inicia el sistema muestra la interfaz de login
con el botón iniciar sesión y campos para que el usuario
pueda ingresar sus credenciales.
Cuando el usuario digita correctamente sus
HU010 Acceso del sistema credenciales, el sistema lo redirecciona a la interfaz
correspondiente a su perfil.
Cuando el usuario digita incorrectamente sus
credenciales, el sistema le muestra un mensaje de error
y no le permite acceder al sistema.
Cuando un usuario esté logueado en el sistema, en el
menú de opciones le mostrará la opción para cerrar
sesión.
Cuando se seleccione el botón cerrar sesión, el sistema
HU011 Cerrar sesión mostrará un mensaje indicando si desea cerrar sesión o
quedarse dentro del sistema.
Cuando un usuario confirme cerrar su sesión, el sistema
lo redirigirá a la pantalla de logueo.
Cuando un usuario esté logueado en el sistema, en el
menú de opciones se le mostrará la opción mi perfil con
el botón editar.
Cuando se seleccione el botón editar, el usuario podrá
HU012 Editar datos usuario actualizar la información que desea que se muestre en
su perfil.
Cuando se confirme la edición, el sistema actualizará la
información del usuario en la interfaz de mi perfil.

3.5.1.5 Listado de tareas técnicas por historia de usuario


A continuación, se presenta el listado de las tareas técnicas por HU del Sprint 3:

Tabla 63

Tareas técnicas por HU para el Sprint 3

Identificador de
Nombre de la Historia Tareas
la Historia

HU008-01 - Creación de la interfaz para generar tips de


estudio
HU008-02 - Desarrollo de la funcionalidad para generar
HU008 Generar tips de estudio tips de estudio

HU008-03 - Implementación de validaciones para


generar los tips de estudio
HU009-01 - Creación de la interfaz para gestionar
HU009 Gestionar Usuarios
usuarios

158
HU009-02 - Desarrollo de la funcionalidad para gestionar
usuarios
HU009-03 - Implementación de validaciones para
gestionar usuarios

HU010-01 - Creación de la interfaz de login

HU010 Acceso del sistema HU010-02 - Desarrollo de la funcionalidad para el login

HU010-03 - Implementación de validaciones para la


autenticación de usuarios

HU011-01 - Creación de la opción de logout

HU011 Cerrar sesión HU011-02 - Desarrollo de la funcionalidad para el logout

HU011-03 - Implementación de validaciones para cerrar


sesión por usuario
HU012-01 - Creación de la interfaz para editar los datos
de un usuario
HU012-02 - Desarrollo de la funcionalidad para editar los
datos de un usuario
HU012 Editar datos usuario
HU012-03 - Implementación de validaciones para
gestionar los datos de un usuario

HU012-04 - Optimización del front del sistema

159
3.5.1.6 Sprint Backlog
El Sprint Backlog correspondiente al tercer Sprint se presenta a continuación:

Tabla 64

Sprint Backlog del Sprint 3

Identificador de Fecha de Inicio Fecha de Fin


Nombre de la Historia Tareas Responsable
la Historia Estimada Estimada

HU008-01 - Creación de la interfaz para


Scrum Team 19/10/2022 21/10/2022
generar tips de estudio

HU008-02 - Desarrollo de la funcionalidad


Scrum Team 21/10/2022 24/10/2022
HU008 Generar tips de estudio para generar tips de estudio

HU008-03 - Implementación de
Scrum Team 24/10/2022 25/10/2022
validaciones para generar los tips de estudio

HU009-01 - Creación de la interfaz para


Scrum Team 25/10/2022 26/10/2022
gestionar usuarios

HU009-02 - Desarrollo de la funcionalidad


HU009 Gestionar Usuarios Scrum Team 26/10/2022 28/10/2022
para gestionar usuarios

HU009-03 - Implementación de
Scrum Team 28/10/2022 31/10/2022
validaciones para gestionar usuarios

HU010-01 - Creación de la interfaz de login Scrum Team 31/10/2022 2/11/2022


HU010 Acceso del sistema
HU010-02 - Desarrollo de la funcionalidad
Scrum Team 2/11/2022 4/11/2022
para el login

160
HU010-03 - Implementación de
validaciones para la autenticación de Scrum Team 4/11/2022 7/11/2022
usuarios
HU011-01 - Creación de la opción de
Scrum Team 7/11/2022 8/11/2022
logout

HU011-02 - Desarrollo de la funcionalidad


HU011 Cerrar sesión Scrum Team 8/11/2022 10/11/2022
para el logout

HU011-03 - Implementación de
Scrum Team 10/11/2022 11/11/2022
validaciones para cerrar sesión por usuario

HU012-01 - Creación de la interfaz para


Scrum Team 11/11/2022 14/11/2022
editar los datos de un usuario

HU012-02 - Desarrollo de la funcionalidad


Scrum Team 14/11/2022 16/11/2022
para editar los datos de un usuario
HU012 Editar datos usuario
HU012-03 - Implementación de
validaciones para gestionar los datos de un Scrum Team 16/11/2022 16/11/2022
usuario
HU012-04 - Optimización del front del
Scrum Team 17/11/2022 17/11/2022
sistema

161
3.5.1.7 Actualización del Tablero Scrum
A continuación, se muestra el Tablero Scrum actualizado en Trello correspondiente
al tercer Sprint:

Figura 66

Tablero Scrum Sprint 3 Actualizado

Nota. La figura muestra el tablero Scrum correspondiente al Sprint 3 actualizado. Captura


de pantalla tomada de “Trello”, 2022, (https://trello.com/b/FuCATIe8/tablero-scrum-base).

3.5.1.8 Resumen del Sprint Planning


El resumen correspondiente al Sprint Planning del presente Sprint se puede visualizar
en el Anexo 9.

3.5.2 Construcción del Sprint 3


En esta sección se presentan los prototipos validados por el PO, la gestión del Sprint
Backlog, la documentación técnica y funcional correspondiente a los componentes
implementados, los escenarios de prueba, los casos de prueba, los resultados de las pruebas
y la gestión de acuerdos correspondientes al Sprint 3.

3.5.2.1 Prototipos validados por el PO


A continuación, se presentan los prototipos validados con el PO correspondientes al
Sprint 3 por HU:

162
Figura 67

HU008 – Generar Tips de Estudio

Figura 68

HU009 - Gestionar Usuarios

163
Figura 69

HU010 - Acceso del sistema

Figura 70

HU011 – Cerrar sesión

164
Figura 71

HU012 – Editar Datos Usuario

El acta de aprobación de los prototipos por parte del PO para el presente Sprint se
puede visualizar en el Anexo 9.

3.5.2.2 Gestión del Sprint Backlog


El desarrollo del presente Sprint se realizó respetando las HU y tareas establecidas
en el Sprint Backlog del punto 3.5.1.6. y la gestión por cada una de ellas comparando lo
estimado vs lo real se detalla en el Sprint Burndown Chart del punto 3.5.3.3.

A continuación, se muestra la gestión del Tablero Scrum realizada en Trello para el


presente Sprint:

165
Figura 72

Gestión del Tablero Scrum para el Sprint 3

Nota. La figura muestra la gestión del tablero Scrum correspondiente al Sprint 3. Captura de
pantalla tomada de “Trello”, 2022, (https://trello.com/b/FuCATIe8/tablero-scrum-base).

3.5.2.3 Documentación funcional y técnica de los componentes construidos


La documentación técnica y funcional correspondientes a las HU contempladas en
el Sprint 3 se encuentra visible para los miembros del equipo del proyecto en el repositorio
compartido para el presente Sprint.

3.5.2.4 Definición de Escenarios y Casos de Prueba


A continuación, se muestran los escenarios y casos de prueba definidos por HU en
base a los criterios de aceptación establecidos por cada una de ellas:

Tabla 65
Escenarios y Casos de Prueba definidos para el Sprint 3
ID Caso
Identificador Datos de
HU de Caso de Prueba Resultado Esperado
de la HU Prueba
Prueba
Perfil
Ingresar con un perfil La opción para estudiante y
Generar
distinto a docente generar tips de estudio administrador
HU008 tips de CP001
para generar tips de no está habilitada para
estudio
estudio el perfil Prueba
manual

166
En sistema debe
mostrar un campo de
texto para ingresar la
Perfil docente
Ingresar a la interfaz descripción del tip
CP002 generar tips de
Prueba
estudio Se debe mostrar el
manual
botón “Subir” que
apertura un selector de
archivo

El sistema permite
Perfil docente
subir un archivo .jpg
Subir un tip de
CP003 con su respectiva
estudio Prueba
descripción mostrando
manual
un mensaje de registro
satisfactorio.
Perfil
Ingresar con un perfil La opción de gestionar estudiante y
distinto a usuarios no debe estar docente
CP004
administrador para habilitada para el
gestionar usuarios perfil Prueba
manual
Se debe mostrar un
listado con todos los
usuarios registrados
en el sistema
Perfil
Se debe mostrar el
administrador
Ingresar a la interfaz botón general “Nuevo
CP005
gestionar usuarios Usuario” en la interfaz
Prueba
manual
Se deben mostrar los
botones “Editar” y
“Eliminar” por cada
registro de usuario de
la lista
Se deben mostrar
Gestionar
HU009 campos para ingresar
Usuarios
los datos del usuario
según el perfil
seleccionado para
registrar. Perfil
administrador
Realizar un registro
CP006 Se debe mostrar un
de usuario
elemento de selección Prueba
con los perfiles manual
actuales del sistema.

Se actualiza la lista de
usuarios incluyendo el
nuevo registro.
Se muestra una
pantalla con los datos
Perfil
precargados del
administrador
Realizar edición de usuario a editar.
CP007
usuario
Prueba
Se puede actualizar
manual
todos los campos del
estudiante.

167
Al dar clic en
Perfil
“Eliminar”, se
administrador
mostrará una pantalla
CP008 Eliminar un Usuario
para la acción
Prueba
eliminar.
manual
El sistema debe
mostrar la interfaz de
login para ingresar las Perfil
credenciales. administrador,
estudiante y
CP009 Ingresar al sistema Si se ingresan docente
credenciales correctas,
el sistema muestra el Prueba
menú principal en manual
base al perfil
seleccionado.
Ingresar al sistema El sistema debe 100 usuarios
masivamente desde permitir más de 70 concurrentes
CP010 JMeter con más de peticiones
Acceso del
HU010 70 usuarios concurrentes sin Prueba
Sistema
concurrentes presentar fallos automatizada
Usuario no
Se debe mostrar un
Ingresar al sistema registrado en
mensaje de error
con un usuario no el sistema
CP011 cuando el usuario no
registrado en el
está registrado en el
sistema Prueba
sistema
manual
Usuario
Se debe mostrar un
registrado y
mensaje de error
Ingresar al sistema contraseña
cuando las
CP012 con credenciales incorrecta
credenciales del
erróneas
usuario ingresado son
Prueba
incorrectas
manual
Perfil
administrador,
Ingresar a la opción La opción de cerrar
estudiante y
de cerrar sesión con sesión debe estar
CP013 docente
todos los perfiles del habilitada para todos
sistema los perfiles.
Prueba
manual
Cuando se seleccione
la opción cerrar
sesión, se debe
Cerrar
HU011 mostrar un mensaje de
sesión Perfil
confirmación previo a
administrador,
cerrar la sesión del
estudiante y
Cerrar sesión de un usuario.
CP014 docente
usuario
Al confirmar el cierre
Prueba
de sesión, el sistema
manual
debe cerrar la sesión
del usuario y
redirigirlo a la interfaz
de login.

168
Perfil
Ingresar con un perfil La opción editar datos
administrador
administrador a la de usuario no debe
CP015
opción editar datos estar habilitada para el
Prueba
de usuario perfil
manual
Se debe mostrar la
interfaz con una
Perfil docente
imagen referencial
y estudiante
Ingresar a la interfaz según el perfil junto a
CP016
de mi perfil su descripción
Prueba
registrada en el
manual
sistema.

Editar Se apertura un pop-up


HU012 datos con un campo de texto
usuario para actualizar la
descripción del
usuario a mostrarse en
el perfil.
Perfil docente
y estudiante
Actualizar datos de Posterior a la
CP017
un usuario actualización de la
Prueba
descripción del
manual
usuario, el sistema
muestra un mensaje de
actualización
satisfactoria y redirige
a la interfaz del perfil
del usuario.

3.5.2.5 Resultados de Pruebas Internas según los escenarios definidos, los criterios de
aceptación y la Definición de Terminado (DoD)
Los resultados obtenidos posterior a la ejecución de las pruebas internas y con
respecto a la DoD se sustentan en el punto 4.1.3 orientado al Sprint 3 y la gestión del tablero
Scrum del Trello.

A continuación, se muestra de manera resumida el cumplimiento del DoD del


presente Sprint:

Tabla 66
Checklist de cumplimiento del DoD del Sprint 3

Criterio ¿Cumplido?

Adecuación Funcional: Las funciones y propiedades satisfacen las ✓


necesidades explícitas e implícitas del usuario

169
Eficiencia de Desempeño: El software no presenta problemas de

rendimiento pese a la concurrencia

Usabilidad: El software es fácil de usar y de aprender ✓

Estado de las HU en el tablero Scrum (Trello) al culminar el Sprint 3 ✓

Conformidad del usuario para el tercer incremento ✓

Existencia de documentación técnica y funcional por componente ✓


desarrollado

Publicación en el sharepoint de los entregables técnicos del



incremento con el número de versión correspondiente al Sprint

El cumplimiento de los puntos del plan de calidad definidos en el punto 5.1.4.4. por Sprint
basados en la ISO/IEC-25010 para la “Calidad del Producto Software”, se puede visualizar
en el punto 4.1.3.

La medición de las métricas de calidad definidas en base al PMBOK correspondientes al


presente Sprint se pueden visualizar en el punto 5.2.3.

En base a los resultados obtenidos, se puede dar por cumplido al Sprint Goal correspondiente
al Sprint 3, dado que, el usuario puede autenticar su ingreso al sistema, generar tips de
estudio para reforzar el aprendizaje de los estudiantes y efectuar la gestión de usuarios.

3.5.2.6 Gestión de Acuerdos del Sprint


A continuación, se muestra la consolidación de acuerdos obtenidos para el presente Sprint
posterior a las reuniones realizadas por el equipo Scrum:

✓ Se definieron y priorizaron las HU en el Product Backlog considerando para el


Sprint 3 la HU008 (Generar tips de estudio), la HU009 (Gestionar Usuarios), la
HU0010 (Acceso del sistema), la HU0011 (Cerrar sesión) y la HU012 (Editar
datos del usuario)
✓ Se acordó realizar las pruebas en base a los criterios de aceptación de cada una de
las historias de usuario
✓ Se acordó pasar a “Terminado” una HU en el Trello solo si ha pasado
satisfactoriamente todas las pruebas

170
3.5.3 Daily Meeting
En esta sección se presentan los puntos a considerar en los Daily Meeting del
Proyecto correspondientes al Sprint 3.

3.5.3.1 Frecuencia de Reuniones


Para el presente Sprint se tienen programadas las reuniones daily los días lunes y
viernes en horario de 9:30pm a 9:45pm.

3.5.3.2 Gestión del Tablero para el Sprint


Cada integrante del equipo Scrum es responsable de gestionar y evidenciar en el Tablero
Scrum del Trello las actividades asignadas por HU para el Sprint. Además, tiene como deber
asistir a los daily meeting y responder las siguientes preguntas:

• ¿Qué hiciste ayer?


• ¿Qué harás hoy?
• ¿Hay impedimentos en tu camino?

Asimismo, todas las respuestas deben quedar evidenciadas en actas, las cuales se podrán
visualizar en el Anexo 9.

171
3.5.3.3 Sprint Burndown Chart
En esta sección se presenta el Burndown Chart correspondiente al presente Sprint.

En la siguiente tabla se observa de manera detallada la estimación por tareas y puntos de historia correspondientes al Sprint 3. Dicha estimación
es la esperada o ideal para llevar a cabo el tercer Sprint.

En la siguiente tabla se observa el detalle de la estimación por puntos de HU correspondiente al Sprint 3.

Tabla 67
Burndown Chart - Estimación Esperada por HU del Sprint 3
Estimado Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Estado por HU 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

8 HU008 Scrum Team Terminado 55 55

9 HU009 Scrum Team Terminado 55 55

10 HU010 Scrum Team Terminado 21 21

11 HU011 Scrum Team Terminado 21 21

12 HU012 Scrum Team Terminado 34 34

Total 186 186 186 186 186 186 186 131 131 131 131 131 131 76 76 76 55 55 55 34 34 34 0

172
En la siguiente tabla se observa de manera detallada la estimación por tareas y puntos de historia correspondientes al Sprint 3. Dicha
estimación es la esperada o ideal para llevar a cabo el tercer Sprint.

Tabla 68

Burndown Chart - Estimación Esperada por Tareas del Sprint 3


Estimado
Estimado por Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Tarea Estado por HU Tarea 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

HU008-01 - Creación de la
Scrum
interfaz para generar tips de Terminado
Team estudio 15 15

HU008-02 - Desarrollo de la
Scrum
8 HU008 funcionalidad para generar tips Terminado 55
Team de estudio 25 25

HU008-03 - Implementación de
Scrum
validaciones para generar los Terminado
Team tips de estudio 15 15

Scrum HU009-01 - Creación de la


Terminado
Team interfaz para gestionar usuarios
15 15

HU009-02 - Desarrollo de la
Scrum
9 HU009 funcionalidad para gestionar Terminado 55
Team usuarios 25 25

HU009-03 - Implementación de
Scrum
validaciones para gestionar Terminado
Team usuarios 15 15

173
Scrum HU010-01 - Creación de la
Terminado
Team interfaz de login
4 4

HU010-02 - Desarrollo de la
10 HU010 Terminado 21
funcionalidad para el login 10 10

HU010-03 - Implementación de
Scrum
validaciones para la Terminado
Team autenticación de usuarios 7 7

Scrum HU011-01 - Creación de la


Terminado
Team opción de logout
4 4

Scrum HU011-02 - Desarrollo de la


11 HU011 Terminado 21
Team funcionalidad para el logout
10 10

HU011-03 - Implementación de
Scrum
validaciones para cerrar sesión Terminado
Team por usuario 7 7

HU012-01 - Creación de la
Scrum
interfaz para editar los datos de Terminado
Team un usuario 9 9

HU012-02 - Desarrollo de la
Scrum
funcionalidad para editar los Terminado
Team datos de un usuario 14 14
12 HU012 34
HU012-03 - Implementación de
Scrum
validaciones para gestionar los Terminado
Team datos de un usuario 5 5

Scrum HU012-04 - Optimización del


Terminado
Team Front del Sistema
6 6

174
Total 186 186 186 171 171 171 146 146 131 131 116 116 116 91 72 72 62 51 51 41 25 25 11 0

A continuación, se muestra el avance real monitoreado para el desarrollo del Sprint 3 por HU y por tareas.

Tabla 69
Burndown Chart - Avance Real por HU del Sprint 3
Real por Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Estado HU 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

8 HU008 Scrum Team Terminado 55 55

Scrum Team Terminado


9 HU009 55 55

10 HU010 Scrum Team Terminado


21 21

11 HU011 Scrum Team Terminado


21 21

12 HU012 Scrum Team Terminado


34 34

Total 186 186 186 186 186 131 131 131 131 131 131 76 76 55 55 34 34 34 0 0 0 0 0

175
Tabla 70

Burndown Chart - Avance Real por Tareas del Sprint 3


Estimado
Real por por Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
ID HU Responsable Tarea Estado HU Tarea 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

HU008-01 - Creación de la
Scrum
interfaz para generar tips de Terminado
Team estudio 15 15

HU008-02 - Desarrollo de la
Scrum
8 HU008 funcionalidad para generar tips Terminado 55
Team de estudio 25 25

HU008-03 - Implementación de
Scrum
validaciones para generar los Terminado
Team tips de estudio 15 15

Scrum HU009-01 - Creación de la


Terminado
Team interfaz para gestionar usuarios
15 15

HU009-02 - Desarrollo de la
Scrum
9 HU009 funcionalidad para gestionar Terminado 55
Team usuarios 25 25

HU009-03 - Implementación de
Scrum
validaciones para gestionar Terminado
Team usuarios 15 15

Scrum HU010-01 - Creación de la


10 HU010 Terminado 21
Team interfaz de login
4 4

176
Scrum HU010-02 - Desarrollo de la
Terminado
Team funcionalidad para el login
10 10

HU010-03 - Implementación de
Scrum
validaciones para la Terminado
Team autenticación de usuarios 7 7

Scrum HU011-01 - Creación de la


Terminado
Team opción de logout
4 4

Scrum HU011-02 - Desarrollo de la


11 HU011 Terminado 21
Team funcionalidad para el logout
10 10

HU011-03 - Implementación de
Scrum
validaciones para cerrar sesión Terminado
Team por usuario 7 7

HU012-01 - Creación de la
Scrum
interfaz para editar los datos de Terminado
Team un usuario 9 9

HU012-02 - Desarrollo de la
Scrum
funcionalidad para editar los Terminado
Team datos de un usuario 14 14
12 HU012 34
HU012-03 - Implementación de
Scrum
validaciones para gestionar los Terminado
Team datos de un usuario 5 5

Scrum HU012-04 - Optimización del


Terminado
Team Front del Sistema
6 6

Total 186 186 186 171 171 146 131 116 116 116 91 91 76 62 55 41 34 25 6 0 0 0 0 0

177
Como se puede observar en el siguiente gráfico, el Sprint Burndown estimado por
puntos de HU correspondiente al presente Sprint, muestra una línea base de esfuerzo basada
en la duración de la etapa de construcción (22 días) en la cual se puede visualizar que, entre
los días 1-7, 8-13, 14-16, 17-19 y 20-22 se necesitará un esfuerzo constante por parte del
equipo Scrum para poder cumplir con lo estimado, no obstante, entre los días 7-8, 13-14, 16-
17, 19-20 y 22 se observa un cambio drástico en el esfuerzo entre intervalos, lo cual nos
advierte de la aparición de posibles riesgos que dificulten cumplir el objetivo al finalizar el
Sprint.

Figura 73

Sprint Burndown Chart por HU- Sprint 3

Sprint Burndown
180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por HU Lineal (Estimado por HU)

Si se detalla por tareas, se puede apreciar con mayor claridad el esfuerzo constante
entre los intervalos de tiempo mencionados en el análisis precedente necesario para cumplir
satisfactoriamente con los objetivos del presente Sprint.

178
Figura 74

Sprint Burndown Chart por Tareas - Sprint 3

Sprint Burndown
180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por Tarea Lineal (Estimado por Tarea)

En la siguiente figura se pueden apreciar las diferencias existentes entre el esfuerzo


y tiempo estimado por puntos de HU vs el real. Se puede observar que hasta el día 5 el avance
real y el esfuerzo estimado tuvieron valores coincidentes, sin embargo, a partir del día 6, los
valores del avance real fueron menores a lo estimado, llegando a culminarse la construcción
del Sprint en el día 19 la cual estaba pronosticada para el día 22.

Figura 75
Sprint Burndown Chart por HU (Estimación vs Real) - Sprint 3

Sprint Burndown (Estimacion vs Real)


180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por HU Real por HU

179
A nivel de tareas, se pueden apreciar con mayor detalle las diferencias existentes
entre el esfuerzo y tiempo estimado vs el real. Los resultados muestran que el avance real
fue mucho mejor que lo estimado a lo largo del desarrollo del tercer Sprint. Si bien es cierto
que hasta el día 5 se tuvieron valores coincidentes para ambas métricas, a partir de dicho día,
el avance real se anticipó al estimado y se mantuvo a buen ritmo hasta la culminación del
presente Sprint.

Figura 76
Sprint Burndown Chart por Tareas (Estimación vs Real) - Sprint 3

Sprint Burndown (Estimacion vs Real)


180
160
140
120
100
80
60
40
20
0
Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día Día
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Estimado por Tarea Real por Tarea

3.5.3.4 Acta de Daily


Las actas correspondientes a los Daily Meeting del equipo Scrum para el presente
Sprint se pueden visualizar en el Anexo 9.

Para evaluar si los impedimentos reportados en las reuniones realizadas podrían


materializar un riesgo o generar alguno se realizó la siguiente matriz:

Tabla 71

Matriz de Impedimentos del Sprint 3

Impacto

180
Mínimo Bajo Moderado Alto Catastrófico

Impedimento Cruce de tareas técnicas con


documentación
Cruce de actividades del
cronograma con levantamiento de
observaciones

Mínimo: No genera riesgo


Bajo: No genera riesgo
Moderado: No genera riesgo
Alto: Genera riesgo
Catastrófico: Genera riesgo

Como se puede apreciar en la matriz precedente, los impedimentos reportados no han


tenido un impacto alto o catastrófico, razón por la cual no han materializado o generado
ningún riesgo.

3.5.4 Sprint Review


A continuación, se muestra a manera de resumen lo acordado en el Sprint Review
del Sprint 3:

3.5.4.1 Lista de HU Completadas y No Completadas


A continuación, se muestra el listado de HU contempladas en el presente Sprint junto
a su estado correspondiente:

Tabla 72
Estado de las Historias de Usuario del Sprint 3

Identificador de la
Nombre de la Historia Estado
Historia

HU008 Generar tips de estudio Terminado

HU009 Gestionar Usuarios Terminado

HU010 Acceso del sistema Terminado

HU011 Cerrar sesión Terminado

181
HU012 Editar datos usuario Terminado

Como se puede visualizar en la tabla anterior, todas las HU contempladas para el


presente Sprint han sido completadas satisfactoriamente.

3.5.4.2 Identificación de Problemas Presentados en el Sprint


A continuación, se presenta la consolidación de los principales problemas
(impedimentos o riegos) encontrados en el desarrollo del presente Sprint:

Tabla 73
Problemas encontrados por HU del Sprint 3

Identificador de la
Problemas
Historia
Cruce de tareas técnicas con documentación

Cruce de actividades del cronograma con levantamiento de


HU008
observaciones

Posibilidad de no encontrar un usuario aprobador para los entregables


Cruce de tareas técnicas con documentación
HU009
Cruce de actividades del cronograma con levantamiento de
observaciones

HU010 Cruce de tareas técnicas con documentación

HU011 Cruce de tareas técnicas con documentación

HU012 Cruce de tareas técnicas con documentación

3.5.4.3 Feedback del PO y/o Stakeholders


Con respecto al Sprint 3, Grover Basas (PO) mostró su satisfacción con el avance
actual del proyecto, brindando su conformidad al incremento 3. Adicionalmente, se llegaron
a los siguientes acuerdos:

182
Tabla 74

Acuerdos con el PO para el Sprint 3

Acuerdos

Se acordó comunicar directamente al PO en caso surgieran problemas relacionados al


acceso de la información del negocio para solucionarlos a la brevedad

Se acordó coordinar una reunión con un usuario externo al proyecto para realizar la
validación de entregables

Se acordó mantener actualizado el Tablero Scrum en el Trello para que el PO pueda


visualizar en tiempo real los avances por Sprint

Se acordó mantener el Product Backlog actual

Se acordó que el PO enviará la Aprobación del Incremento 3 presentado de manera formal


para adjuntarlo al proyecto en el transcurso de la semana

Si bien es cierto que el PO se mostró conforme con el incremento 3, nos dejó el siguiente
Feedback:

• Las funcionalidades del sistema son correctas y ahora también es visualmente


atractivo, ello demuestra la capacidad y habilidad que poseen como futuros
egresados. Buen trabajo.

3.5.4.4 Acta del Sprint Review


El Acta correspondiente al Sprint Review correspondiente al Sprint 3 se encuentra
adjunta en el Anexo 9.

3.5.5 Sprint Retrospective


A continuación, se muestra a manera de resumen lo acordado en el Sprint
Retrospective del Sprint 3:

3.5.5.1 Plan de Acciones de Mejora


A continuación, se muestra el Plan de Acciones de Mejora del Sprint:

183
Tabla 75

Plan de Acciones de Mejora Sprint 3

Objetivo Acción

Optimizar la organización del equipo


Culminar satisfactoriamente los pendientes para cumplir con los entregables del
correspondientes al Sprint Sprint

3.5.5.2 Aprendizaje del Sprint


Para poder dar una vista más detallada a la retrospectiva del presente Sprint se realizó
el siguiente gráfico, en donde se mencionan los siguientes puntos:

• ¿Qué nos ayudó a seguir adelante?


• ¿Qué nos detuvo?
• ¿Cómo podríamos hacer las cosas de manera diferente?
• ¿Qué debemos hacer a continuación?

184
Figura 77

Retrospectiva Sprint 3

Como se puede apreciar, el presente Sprint nos deja como aprendizaje lo siguiente:

• Se debe cumplir con las fechas del cronograma para no afectar los entregables por
Sprint.
• Se deben culminar con todos los pendientes establecidos por Sprint en base a lo
estimado.

3.5.5.3 Acta del Sprint Retrospective


El Acta correspondiente al Sprint Retrospective correspondiente al Sprint 3 se
encuentra adjunta en el Anexo 9.

185
3.5.6 Refinamiento del Product Backlog
A continuación, se muestra a manera de resumen lo acordado en el Refinamiento del
Product Backlog del Sprint 3:

3.5.6.1 Gestión del Product Backlog


Se mantendrá el Product Backlog definido actualmente, este se puede visualizar en
el punto 3.1.7.

3.5.6.2 Resumen del Refinamiento del Product Backlog


En la reunión de Refinamiento, Grover Basas (PO), solicitó que se mantenga el
Product Backlog definido actualmente, este se puede visualizar en el punto 3.1.7. Además,
se acordó mantener como deuda técnica la retroalimentación del modelo predictivo debido
a que se realizará de manera manual y la publicación del proyecto final en la nube de Azure.

3.5.6.3 Acta de Refinamiento del Product Backlog


El Acta correspondiente al Refinamiento del Product Backlog correspondiente al
Sprint 3 se encuentra adjunta en el Anexo 9.

CAPÍTULO IV – RESULTADOS DEL PROYECTO


En el presente capítulo se presentan los resultados obtenidos a raíz de la
implementación del proyecto, categorizados por sprints y alineados a los indicadores de éxito
planteados con respecto a la calidad del software y el incremento del producto.

4.1 Calidad de Software


A continuación, se muestra evidencia del cumplimiento de las métricas de calidad de
software detalladas en el punto 5.1.4.4 por Incremento de Sprint:

4.1.1 Incremento 1
Tabla 76

Control de métricas de calidad de Software Incremento1

Características Métricas Evidencia


• Acta de conformidad por
• El usuario se mostró conforme
parte del usuario por
con las funcionalidades
Adecuación incremento con estado 1.
implementadas para el Sprint 1.
Funcional Dónde:
Ver Anexo 7: Aprobación del
- 0: Desaprobado
Entregable 1.
- 1: Aprobado

186
• Cumplimiento total de los • Se cumplieron con todos los
puntos del DoD por Sprint puntos especificados en el DoD
correspondiente al Sprint 1 en el
punto 3.3.1.1.

Se cumplieron totalmente los


criterios de aceptación
establecidos por HU lo cual se
evidencia en el Anexo 7:
Cumplimiento de Indicadores
por HU – Incremento 1

En base a la fórmula establecida


se demostraría de la siguiente
manera:

Para la HU001:
𝟕
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟕

Para la HU002:
𝟒
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟒

Para la HU003:
𝟒
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟒

• Índice de defectos nulo en Posterior a la ejecución de


pruebas de concurrencia pruebas de concurrencia
mayor a 100 hilos de realizadas en JMeter con 150
usuarios por ejecución para hilos de usuarios para la
la funcionalidad con mayor funcionalidad del Incremento
valor para el negocio por con mayor valor al negocio se
Sprint (Ver ecuación 2) obtuvo un total de cero errores
resultantes. Ver Anexo 7:
Eficiencia Aprobación de Pruebas de
de Desempeño: Estrés y
Desempeño Concurrencia – Incremento 1

En base a la fórmula establecida


se demostraría de la siguiente
manera:
𝟎
× 𝟏𝟎𝟎% = 𝟎%
𝟏𝟓𝟎

187
• Acta de conformidad con • El usuario brindó su
respecto a la experiencia del conformidad con respecto a la
usuario por parte del experiencia de usuario para el
usuario por incremento con Incremento 1 mostrando su
estado 1. aprobación a la usabilidad del
Dónde: sistema.
- 0: Desaprobado Ver Anexo 7: Aprobación de
- 1: Aprobado UX del Incremento 1.
• Posterior a la ejecución de
pruebas, el usuario no reportó
Usabilidad errores de usabilidad, razón por
la cual, el índice de errores es
nulo lo cual se puede evidenciar
con el acta de aprobación UX y
en la aplicación de la fórmula:

𝟎
× 𝟏𝟎𝟎% = 𝟎%
𝟏𝟐

4.1.2 Incremento 2
Tabla 77
Control de métricas de calidad de Software Incremento 2

Características Métricas Evidencia


• Acta de conformidad por • El usuario se mostró conforme
parte del usuario por con las funcionalidades
incremento con estado 1. implementadas para el Sprint
Dónde: 2. Ver Anexo 8: Aprobación
- 0: Desaprobado del Entregable 2.
- 1: Aprobado
• Se cumplieron con todos los
• Cumplimiento total de puntos especificados en el
Adecuación los puntos del DoD por DoD correspondiente al Sprint
Funcional Sprint 2 en el punto 3.4.1.1.

Se cumplieron totalmente los


criterios de aceptación
establecidos por HU lo cual se
evidencia en el Anexo 8:
Cumplimiento de Indicadores
por HU – Incremento 2

188
En base a la fórmula
establecida se demostraría de
la siguiente manera:

Para la HU003:
𝟒
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟒

Para la HU004:
𝟓
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟓

Para la HU005:
𝟕
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟕
Para la HU006:
𝟕
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟕

• Índice de defectos nulo Posterior a la ejecución de


en pruebas de pruebas de concurrencia
concurrencia mayor a realizadas en JMeter con 150
100 hilos de usuarios por hilos de usuarios para la
ejecución para la funcionalidad del Incremento
funcionalidad con mayor con mayor valor al negocio se
valor para el negocio por obtuvo un total de cero errores
Sprint (Ver ecuación 2) resultantes. Ver Anexo 8:
Eficiencia de Aprobación de Pruebas de
Desempeño Desempeño: Estrés y
Concurrencia – Incremento 2
En base a la fórmula
establecida se demostraría de
la siguiente manera:
𝟎
× 𝟏𝟎𝟎% = 𝟎%
𝟏𝟓𝟎

• Acta de conformidad con • El usuario brindó su


respecto a la experiencia conformidad con respecto a la
del usuario por parte del experiencia de usuario para el
usuario por incremento Incremento 2 mostrando su
Usabilidad con estado 1. aprobación a la usabilidad del
Dónde: sistema.
- 0: Desaprobado Ver Anexo 8: Aprobación de
- 1: Aprobado UX del Incremento 2.

189
• Posterior a la ejecución de
pruebas, el usuario no reportó
errores de usabilidad, razón
por la cual, el índice de errores
es nulo lo cual se puede
evidenciar con el acta de
aprobación UX y en la
aplicación de la fórmula:

𝟎
× 𝟏𝟎𝟎% = 𝟎%
𝟐𝟎

4.1.3 Incremento 3
Tabla 78
Control de métricas de calidad de Software Incremento 3

Características Métricas Evidencia


• Acta de conformidad por • El usuario se mostró conforme
parte del usuario por con las funcionalidades
incremento con estado 1. implementadas para el Sprint
Dónde: 3. Ver Anexo 9: Aprobación
- 0: Desaprobado del Entregable 3.
- 1: Aprobado
• Se cumplieron con todos los
• Cumplimiento total de puntos especificados en el
los puntos del DoD por DoD correspondiente al Sprint
Sprint 3 en el punto 3.5.1.1.

Adecuación Se cumplieron totalmente los


Funcional criterios de aceptación
establecidos por HU lo cual se
evidencia en el Anexo 9:
Cumplimiento de Indicadores
por HU – Incremento 3

En base a la fórmula
establecida se demostraría de
la siguiente manera:

Para la HU008:
𝟒
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟒

190
Para la HU009:
𝟔
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟔

Para la HU010:
𝟑
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟑
Para la HU011:
𝟑
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟑
Para la HU012:
𝟑
× 𝟏𝟎𝟎% = 𝟏𝟎𝟎%
𝟑

• Índice de defectos nulo Posterior a la ejecución de


en pruebas de pruebas de concurrencia
concurrencia mayor a realizadas en JMeter con 150
100 hilos de usuarios por hilos de usuarios para la
ejecución para la funcionalidad del Incremento
funcionalidad con mayor con mayor valor al negocio se
valor para el negocio por obtuvo un total de cero errores
Sprint (Ver ecuación 2) resultantes. Ver Anexo 9:
Eficiencia de Aprobación de Pruebas de
Desempeño Desempeño: Estrés y
Concurrencia – Incremento 3
En base a la fórmula
establecida se demostraría de
la siguiente manera:
𝟎
× 𝟏𝟎𝟎% = 𝟎%
𝟏𝟓𝟎

• Acta de conformidad con • El usuario brindó su


respecto a la experiencia conformidad con respecto a la
del usuario por parte del experiencia de usuario para el
usuario por incremento Incremento 3 mostrando su
con estado 1. aprobación a la usabilidad del
Dónde: sistema.
Usabilidad - 0: Desaprobado Ver Anexo 9: Aprobación de
- 1: Aprobado UX del Incremento 3.

• Posterior a la ejecución de
pruebas, el usuario no reportó
errores de usabilidad, razón
por la cual, el índice de errores
es nulo lo cual se puede

191
evidenciar con el acta de
aprobación UX y en la
aplicación de la fórmula:

𝟎
× 𝟏𝟎𝟎% = 𝟎%
𝟏𝟕

4.2 Incremento del producto


A continuación, se muestra evidencia del cumplimiento de cada una de las HU
contempladas en el presente proyecto por Incremento de Sprint:

4.2.1 Incremento 1
Figura 78
HU001 - Predicción del Riego Escolar – Incremento 1

192
Figura 79

HU002 - Responder Encuesta – Incremento 1

Figura 80

HU003 - Consultar estudiantes en riesgo – Incremento 1

193
4.2.2 Incremento 2
Figura 81
HU004 - Monitorear Encuesta – Incremento 2

194
Figura 82

HU005 – Generar Reporte de Estudiantes en Riesgo – Incremento 2

Figura 83
HU006 – Gestionar Acciones – Incremento 2

195
Figura 84

HU007 – Gestionar Secciones – Incremento 2

196
4.2.3 Incremento 3
Figura 85
HU008 - Generar tips de estudio – Incremento 3

Figura 86
HU009 - Gestionar Usuarios – Incremento 3

197
Figura 87

HU010 - Acceso del sistema – Incremento 3

Figura 88

HU011 - Cerrar sesión – Incremento 3

198
Figura 89

HU012 - Editar datos usuario – Incremento 3

199
4.3 Cumplimiento de los indicadores del éxito
A continuación, se presentan los resultados alineados a los objetivos específicos
detallados en el punto 1.2.1.2. A continuación, se brinda mayor detalle por cada uno de ellos:

Objetivo SG01:

Para analizar la problemática de la reprobación estudiantil en la institución en estudio


e identificar sus factores más influyentes y soluciones predictivas basadas en Machine
Learning en un periodo de tiempo no mayor a 3 meses ha sido necesario el cumplimiento de
los indicadores del punto 1.2.2. que corresponden a este objetivo.

Para evidenciar el cumplimiento de dichos indicadores se ha realizado el siguiente


cuadro de verificación:

Tabla 79

Cumplimiento del objetivo SG01


Indicador de éxito Estado Evidencia
Conformidad por parte de la ✓ Se brindó conformidad al análisis
institución sobre el análisis de la del negocio.
situación actual del negocio Ver Anexo 10
Relevancia en la investigación ✓ 𝐴𝑟𝑡𝐴𝑛𝑎𝑙𝑖𝑧𝑄1
× 100% > 40%
de artículos científicos 𝑇𝑜𝑡𝐴𝑟𝑡𝐴𝑛𝑎𝑙𝑖𝑧

relacionados a técnicas 15
predictivas basadas en Machine × 100% > 40%
20
Learning
𝟕𝟓% > 𝟒𝟎%

Mediante la fórmula se valida que se


revisaron más de 8 artículos al Q1
relacionados a las técnicas
predictivas de Machine Learning
(40% en base a un total de 20
artículos revisados)

Ver punto 2.3. Estado del Arte

Cumplimiento del plazo establecido ✓ Se culminó el plan de gestión del


en el cronograma cronograma antes del 23/08/2021.
Ver punto 5.3.2.

200
Como se puede apreciar en la Tabla 79, el objetivo SG01 ha sido cumplido
satisfactoriamente debido a que se han logrado alcanzar las metas establecidas por sus
respectivos indicadores.

Objetivo SG02:

Para diseñar una aplicación web predictiva basada en un modelo de Machine


Learning para predecir estudiantes en riesgo académico en un plazo no mayor a 4 meses ha
sido necesario el cumplimiento de los indicadores del punto 1.2.2. que corresponden a este
objetivo.

Para evidenciar el cumplimiento de dicho indicador se ha realizado el siguiente


cuadro de verificación:

Tabla 80

Cumplimiento del objetivo SG02


Indicador de éxito Estado Evidencia
Conformidad de la arquitectura del ✓ Se brindó conformidad.
proyecto por parte del área usuaria y Ver Anexo 13
especialista TI

Cumplimiento del plazo establecido en el ✓ Se culminó y aprobó la


cronograma arquitectura base antes del
01/11/2021.
Ver punto 5.3.2.

Como se puede apreciar en la Tabla 80, el objetivo SG02 ha sido cumplido


satisfactoriamente debido a que se ha logrado alcanzar la meta establecida por su respectivo
indicador.

Objetivo SG03:

Para construir y probar la aplicación web predictiva para garantizar su correcto


funcionamiento logrando un índice de defectos nulo para las funcionalidades clave al
finalizar cada Sprint ha sido necesario el cumplimiento de los indicadores del punto 1.2.2.
que corresponden a este objetivo.

Para evidenciar el cumplimiento de dicho indicador se han realizado los siguientes


cuadros de verificación por Sprint:

201
Tabla 81

Cumplimiento del objetivo SG03 para el Sprint 1

Indicador de éxito Estado Evidencia


Conformidad por parte del área ✓ Se brindó conformidad para el
usuaria por cada entregable de Sprint 1.
Sprint Ver Anexo 7: Aprobación del
Entregable 1

Cumplimiento de los criterios de ✓ El índice de defectos obtenido


aceptación por HU del Sprint posterior a la ejecución de las
pruebas del Sprint 1 fue nulo.
𝑃𝑟𝑢𝑒𝑏𝐹𝑎𝑙𝑙𝑎
× 100% = 0%
𝑇𝑜𝑡𝑃𝑟𝑢𝑒𝑏

0
× 100% = 𝟎%
12

Los resultados obtenidos por cada


prueba se presentan en la Tabla 82.

Tabla 82

Casos de Prueba Sprint 1

CASOS DE DESCRIPCIÓN DE PRUEBA RESULTADOS


PRUEBA
CP001 Ingresar con un perfil distinto a docente para realizar Resultado
una predicción de estudiantes en riesgo Exitoso
CP002 Ingresar a la interfaz de predicción de riesgo Resultado
estudiantil Exitoso
CP003 Realizar una consulta de estudiantes Resultado
Exitoso
CP004 Realizar una predicción estudiantil Resultado
Exitoso
CP005 Realizar una predicción de riesgo estudiantil desde Resultado
JMeter con más de 100 usuarios concurrentes Exitoso
CP006 Ingresar con un perfil distinto a estudiante para Resultado
realizar el llenado de la encuesta Exitoso

202
CP007 Ingresar a la interfaz para llenado de encuesta con Resultado
un estudiante que no haya respondido la encuesta Exitoso
CP008 Ingresar a la interfaz para el llenado de la encuesta Resultado
con un estudiante que ya haya respondido la Exitoso
encuesta
CP009 Llenar una encuesta y grabar las respuestas. Resultado
Exitoso
CP010 Ingresar a la interfaz de consulta de estudiantes en Resultado
riesgo Exitoso
CP011 Ingresar a la interfaz de consulta de riesgo Resultado
estudiantil Exitoso
CP012 Realizar una consulta de estudiantes en riesgo Resultado
Exitoso

Tabla 83

Cumplimiento del objetivo SG03 para el Sprint 2

Indicador de éxito Estado Evidencia


Conformidad por parte del área ✓ Se brindó conformidad para el
usuaria por cada entregable de Sprint 2.
Sprint Ver Anexo 8: Aprobación del
Entregable 2

Cumplimiento de los criterios de ✓ El índice de defectos obtenido


aceptación por HU del Sprint posterior a la ejecución de las
pruebas del Sprint 2 fue nulo.
𝑃𝑟𝑢𝑒𝑏𝐹𝑎𝑙𝑙𝑎
× 100% = 0%
𝑇𝑜𝑡𝑃𝑟𝑢𝑒𝑏

0
× 100% = 𝟎%
20

Los resultados obtenidos por cada


prueba se presentan en la Tabla 84.

203
Tabla 84

Casos de Prueba Sprint 2

CASOS DE DESCRIPCIÓN DE PRUEBA RESULTADOS


PRUEBA
CP001 Ingresar con un perfil distinto a docente para realizar Resultado
el monitoreo de encuestas Exitoso
CP002 Ingresar a la interfaz de monitoreo de encuestas Resultado
Exitoso
CP003 Realizar una consulta para monitorear encuestas Resultado
Exitoso
CP004 Realizar monitoreo de encuestas con envío de correo Resultado
desde JMeter con más de 100 usuarios concurrentes Exitoso
CP005 Ingresar con un perfil distinto a administrador para Resultado
generar el reporte de estudiantes en riesgo Exitoso
CP006 Ingresar a la interfaz de generar reporte de Resultado
estudiantes en riesgo Exitoso
CP007 Realizar una consulta de estudiantes para generar el Resultado
reporte de estudiantes en riesgo Exitoso
CP008 Generar reporte de estudiantes en riesgo Resultado
Exitoso
CP009 Ingresar con un perfil distinto a administrador para Resultado
gestionar acciones Exitoso
CP010 Ingresar a la interfaz de gestionar acciones Resultado
Exitoso
CP011 Registrar una nueva acción Resultado
Exitoso
CP012 Ver detalle de acciones Resultado
Exitoso
CP013 Editar una acción Resultado
Exitoso
CP014 Eliminar una acción Resultado
Exitoso
CP015 Ingresar con un perfil distinto a administrador para Resultado
gestionar secciones Exitoso
CP016 Ingresar a la interfaz de gestionar secciones Resultado
Exitoso
CP017 Registrar una nueva sección Resultado
Exitoso

204
CP018 Ver detalle de secciones Resultado
Exitoso
CP019 Editar una sección Resultado
Exitoso
CP020 Eliminar una sección Resultado
Exitoso

Tabla 85

Cumplimiento del objetivo SG03 para el Sprint 3


Indicador de éxito Estado Evidencia
Conformidad por parte del área ✓ Se brindó conformidad para el
usuaria por cada entregable de Sprint 3.
Sprint Ver Anexo 9: Aprobación del
Entregable 3

Cumplimiento de los criterios de ✓ El índice de defectos obtenido


aceptación por HU del Sprint posterior a la ejecución de las
pruebas del Sprint 3 fue nulo.
𝑃𝑟𝑢𝑒𝑏𝐹𝑎𝑙𝑙𝑎
× 100% = 0%
𝑇𝑜𝑡𝑃𝑟𝑢𝑒𝑏

0
× 100% = 𝟎%
17

Los resultados obtenidos por cada


prueba se presentan en la Tabla 86.

Tabla 86

Casos de Prueba Sprint 3


CASOS DE DESCRIPCIÓN DE PRUEBA RESULTADOS
PRUEBA
CP001 Ingresar con un perfil distinto a docente para Resultado
generar tips de estudio Exitoso
CP002 Ingresar a la interfaz generar tips de estudio Resultado
Exitoso
CP003 Subir un tip de estudio Resultado
Exitoso

205
CP004 Ingresar con un perfil distinto a administrador para Resultado
gestionar usuarios Exitoso
CP005 Ingresar a la interfaz gestionar usuarios Resultado
Exitoso
CP006 Realizar un registro de usuario Resultado
Exitoso
CP007 Realizar edición de usuario Resultado
Exitoso
CP008 Eliminar un usuario Resultado
Exitoso
CP009 Ingresar al sistema Resultado
Exitoso
CP010 Ingresar al sistema masivamente desde JMeter con Resultado
más de 100 usuarios concurrentes Exitoso
CP011 Ingresar al sistema con un usuario no registrado en Resultado
el sistema Exitoso
CP012 Ingresar al sistema con credenciales erróneas. Resultado
Exitoso
CP013 Ingresar a la opción de cerrar sesión con todos los Resultado
perfiles del sistema. Exitoso
CP014 Cerrar sesión de un usuario. Resultado
Exitoso
CP015 Ingresar con un perfil administrador a la opción Resultado
editar datos de usuario Exitoso
CP016 Ingresar a la interfaz de mi perfil Resultado
Exitoso
CP017 Actualizar datos de usuario Resultado
Exitoso

Objetivo SG04:

Para validar el correcto funcionamiento de la aplicación predictiva logrando


identificar, con una eficacia y exactitud mayores al 95%, a los estudiantes de la institución

206
que se encuentren en riesgo académico al finalizar el proyecto, ha sido necesario el
cumplimiento de los indicadores del punto 1.2.2. que corresponden a este objetivo.

Para evidenciar el cumplimiento de dicho indicador se ha realizado el siguiente


cuadro de verificación:

Tabla 87
Cumplimiento del objetivo SG04

Indicador de éxito Estado Evidencia


Conformidad por parte del PO a ✓ Se brindó la conformidad a la entrega
la entrega final del proyecto final del proyecto.
Ver Anexo 17: Aprobación del
entregable final del proyecto
Adicionalmente, se brindó
conformidad a la calidad del producto
entregado: Ver Anexo 21: Aprobación
de calidad del producto
Alto nivel de eficacia predictiva ✓ Se obtuvieron los valores esperados
para la eficacia predictiva de la
aplicación los cuales superan con éxito
el valor mínimo establecido como
indicador el cual es 95%, tal como se
presenta a continuación:

𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠𝑃𝑟𝑒𝑑𝑖𝑐ℎ𝑜𝑠
𝐸𝑓𝑖𝑐𝑎𝑐𝑖𝑎 = × 100%
𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠𝑅𝑒𝑎𝑙𝑒𝑠

99
𝐸𝑓𝑖𝑐𝑎𝑐𝑖𝑎 = × 100%
100

𝑬𝒇𝒊𝒄𝒂𝒄𝒊𝒂 = 𝟗𝟗, 𝟎𝟎% > 𝟗𝟓, 𝟎𝟎%


Ver detalle de resultados en la sección
posterior.
Alto nivel de exactitud predictiva ✓ Se obtuvieron los valores esperados
para la exactitud predictiva de la
aplicación los cuales superan con éxito
el valor mínimo establecido como
indicador el cual es 95%, tal como se
presenta a continuación:

𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 = (𝑇𝑃 + 𝑇𝑁)/(𝑇𝑃 + 𝐹𝑁 + 𝑇𝑁 + 𝐹𝑃)

207
𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 = (1 + 98)/(1 + 0 + 98 + 1)

𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 = 99/100

𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 = 99,00%

𝑬𝒙𝒂𝒄𝒕𝒊𝒕𝒖𝒅 = 𝟗𝟗, 𝟎𝟎% > 𝟗𝟓, 𝟎𝟎%


Ver detalle de resultados en la sección
posterior.
Reducción de estudiantes en ✓ Se obtuvieron los valores esperados
riesgo académico al finalizar el para el porcentaje de alumnos que
año escolar aprobados que fueron clasificados
inicialmente como riesgo en la primera
mitad del año lectivo, los cuales
superan con éxito el valor mínimo
establecido como indicador el cual es
93% al finalizar el año escolar tal como
se presenta a continuación:

(𝐴𝑙𝑢𝑚𝑛𝑜𝑠𝑅𝑖𝑒𝑠𝑔𝑜 − 𝐴𝑙𝑢𝑚𝑛𝑜𝑠𝑅𝑒𝑝𝑟𝑜𝑏𝑎𝑑𝑜𝑠) × 100%


%=
𝐴𝑙𝑢𝑚𝑛𝑜𝑠𝑅𝑖𝑒𝑠𝑔𝑜

(20 − 1) × 100%
%=
20

19 × 100%
%=
20

% = 𝟗𝟓,𝟎𝟎% > 𝟗𝟑, 𝟎𝟎 %

Ver detalle de resultados en la sección


posterior.
Reducción del índice de ✓ Se obtuvo el valor esperado con
crecimiento de reprobación respecto a la reducción del índice de
anual en la institución para el crecimiento de reprobación anual en la
intervalo lectivo 2018-2022
institución intervalo lectivo 2018-
al finalizar el proyecto
2022, el cual supera con éxito el valor
mínimo establecido como indicador el
cual es 5% al finalizar el proyecto tal
como se presenta a continuación:

Este valor fue obtenido aplicando la


siguiente fórmula:

208
𝐷𝑖𝑓𝐼𝑛𝑑𝑅𝑒𝑝 = 𝐼𝑛𝑑𝑅𝑒𝑝𝐼𝑛𝑡2021 − 𝐼𝑛𝑑𝑅𝑒𝑝𝐼𝑛𝑡2022

𝐷𝑖𝑓𝐼𝑛𝑑𝑅𝑒𝑝 = 24,51% − 15,05%

𝑫𝒊𝒇𝑰𝒏𝒅𝑹𝒆𝒑 = 𝟗, 𝟒𝟕% > 𝟓, 𝟎%

Ver detalle de resultados en la sección


posterior.

A continuación, se muestra a detalle el proceso de obtención de resultados para la


validación de los indicadores de éxito establecidos para el objetivo SG04. Este proceso se
divide en 2 ejecuciones y se rige a los pasos establecidos para la validación del modelo
predictivo en el punto 1.2.4 tal como se muestra a continuación:

Primera ejecución (Marzo del año lectivo 2022)

Fase 1: Selección de población y muestra


Se tomó como muestra para la primera ejecución un total de 100 estudiantes, los
cuales se encuentran matriculados en el curso de Historia (Ciencias Sociales) de nivel
secundario de la I.E.P Santiago Antúnez de Mayolo, pertenecen a 5 secciones diferentes y
se encuentran agrupados en cantidad de 20 estudiantes por sección.

Tabla 88

Clasificación de estudiantes de la muestra de la primera ejecución

Secciones Curso Docente Cantidad


5 “A” Historia Grover Basas 20
5 “B” Historia Grover Basas 20
5 “C” Historia Grover Basas 20
5 “D” Historia Grover Basas 20
5 “E” Historia Grover Basas 20

Los 100 estudiantes, mediante el sistema web implementado, han realizado el llenado
de sus respectivas encuestas en conjunto de su padre, madre o apoderado. Para esta primera
ejecución, la encuesta no muestra las preguntas ¿Recibió alguna acción de ayuda estudiantil?
ni ¿Considera que las acciones de ayuda estudiantil que ha recibido han sido efectivas en su

209
progreso académico?, puesto que, aún no se han identificado los estudiantes en riesgo de
reprobación. Los resultados se muestran a continuación:

Figura 90
Clasificación de respuestas obtenidas en las encuestas de la primera ejecución

Nota. La figura muestra la clasificación de las respuestas obtenidas en las encuestas para la
primera ejecución del sistema predictivo.

En base a los resultados de la figura precedente se puede apreciar que la mayoría de


los estudiantes coinciden en que sus padres trabajan, estudian solos, con frecuencia y han
tenido un promedio mayor a 15 en el curso de Historia en año lectivo anterior (2021).

Fase 2: Procesamiento de datos

Los datos fueron procesados por los algoritmos bayesianos y su resultado fue
almacenado en la tabla EntrenamientoML para realizar el entrenamiento del modelo
mediante la clase NaiveBayesMulticlassTrainer de la librería ML.NET.

Fase 3: Ejecución y predicción

Al llevar a cabo la ejecución de una predicción con la información recopilada en las


fases precedentes se obtuvieron los siguientes resultados organizados por sección:

210
• 5 “A”

Para la sección A el modelo predijo que 4 estudiantes se encontraban en


riesgo de reprobar el curso de Historia mientras que 16 no, sin embargo, al contrastar
la información predicha con lo real, se identificó que lo correcto sería que 5
estudiantes se hubieran identificado como riesgo y 15 no, lo cual deja en evidencia
que el modelo identificó erróneamente a un estudiante en riesgo catalogándolo como
no riesgo. Dicho contraste de información se puede visualizar a continuación:

Figura 91

Predicción vs Real para la sección A de la primera ejecución

Sección A: Predicho vs Real


15
No Riesgo
16

5
Riesgo
4

0 2 4 6 8 10 12 14 16 18 20
Riesgo No Riesgo
Real 5 15
Predicho 4 16

• 5 “B”

Para la sección B el modelo predijo que 5 estudiantes se encontraban en


riesgo de reprobar el curso de Historia mientras que 15 no. Al contrastar la
información predicha con lo real, se identificó que la predicción fue correcta. Dicho
contraste de información se puede visualizar a continuación:

211
Figura 92

Predicción vs Real para la sección B de la primera ejecución

Sección B: Predicho vs Real


15
No Riesgo
15

5
Riesgo
5

0 2 4 6 8 10 12 14 16 18 20
Riesgo No Riesgo
Real 5 15
Predicho 5 15

• 5 “C”

Para la sección C el modelo predijo que 3 estudiantes se encontraban en


riesgo de reprobar el curso de Historia mientras que 17 no, sin embargo, al contrastar
la información predicha con lo real, se identificó que lo correcto sería que solo 2
estudiantes se hubieran identificado como riesgo y 18 no, lo cual deja en evidencia
que el modelo identificó erróneamente a un estudiante que no estaba en riesgo
catalogándolo como en riesgo. Dicho contraste de información se puede visualizar a
continuación:

Figura 93

Predicción vs Real para la sección C de la primera ejecución

212
Sección C: Predicho vs Real
18
No Riesgo
17

2
Riesgo
3

0 2 4 6 8 10 12 14 16 18 20

Riesgo No Riesgo
Real 2 18
Predicho 3 17

• 5 “D”

Para la sección D el modelo predijo que 4 estudiantes se encontraban en


riesgo de reprobar el curso de Historia mientras que 16 no. Al contrastar la
información predicha con lo real, se identificó que la predicción fue correcta. Dicho
contraste de información se puede visualizar a continuación:

Figura 94

Predicción vs Real para la sección D de la primera ejecución

Sección D: Predicho vs Real


16
No Riesgo
16

4
Riesgo
4

0 2 4 6 8 10 12 14 16 18 20

Riesgo No Riesgo
Real 4 16
Predicho 4 16

• 5 “E”

Para la sección E el modelo predijo que 3 estudiantes se encontraban en riesgo


de reprobar el curso de Historia mientras que 17 no, sin embargo, al contrastar la
información predicha con lo real, se identificó que lo correcto sería que 4 estudiantes
se hubieran identificado como riesgo y 16 no, lo cual deja en evidencia que el modelo

213
identificó erróneamente a un estudiante en riesgo catalogándolo como no riesgo.
Dicho contraste de información se puede visualizar a continuación:

Figura 95

Predicción vs Real para la sección E de la primera ejecución

Sección E: Predicho vs Real


16
No Riesgo
17

4
Riesgo
3

0 2 4 6 8 10 12 14 16 18 20

Riesgo No Riesgo
Real 4 16
Predicho 3 17

Fase 4: Aplicación de métricas de calidad

Una vez efectuada la predicción, los resultados obtenidos en la Fase 3 fueron


clasificados en base a las tasas de retorno de los algoritmos clasificadores. Las tasas
obtenidas fueron las siguientes:

Tabla 89
Tasas de retorno obtenidas a partir de los resultados de la primera ejecución

# Verdaderos Falsos Verdaderos Falsos


Prueba Positivos Positivos (FP) Negativos Negativos
(TP) (TN) (FN)
1 4 0 15 1
2 5 0 15 0
3 2 1 17 0
4 4 0 16 0
5 3 0 16 1
Total 18 1 79 2

214
Nota. La tabla muestra los resultados de la primera ejecución clasificados en sus respectivas
tasas de retorno.

Con los valores obtenidos para las tasas se realizó la aplicación de las métricas de
eficacia y exactitud para la primera mitad del año lectivo 2022.

La exactitud obtenida para el modelo fue de 97,0 puntos porcentuales y su cálculo se


detalla en la siguiente ecuación:

𝑇𝑃 + 𝑇𝑁
𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 =
𝑇𝑃 + 𝐹𝑁 + 𝑇𝑁 + 𝐹𝑃

18 + 79
𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 =
18 + 2 + 79 + 1

97
𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 =
100

𝑬𝒙𝒂𝒄𝒕𝒊𝒕𝒖𝒅 = 𝟗𝟕, 𝟎𝟎%

Adicionalmente, se evidencia el nivel de eficacia de este, tomando en cuenta que, de


un total de 100 estudiantes, se predijeron correctamente 97 los cuales equivalen a la suma
de la tasa de verdaderos positivos más la tasa de verdaderos negativos (TP +TN):

𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠𝑃𝑟𝑒𝑑𝑖𝑐ℎ𝑜𝑠
𝐸𝑓𝑖𝑐𝑎𝑐𝑖𝑎 = × 100%
𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠𝑅𝑒𝑎𝑙𝑒𝑠

97
𝐸𝑓𝑖𝑐𝑎𝑐𝑖𝑎 = × 100%
100

𝑬𝒇𝒊𝒄𝒂𝒄𝒊𝒂 = 𝟗𝟕, 𝟎𝟎%

Los resultados obtenidos de esta primera etapa (outputs) sirven como inputs para la
segunda, debido a que el docente ya ha logrado identificar con altos niveles de exactitud y
eficacia a los estudiantes en riesgo y empezará a tomar las acciones pertinentes para evitar
la reprobación de estos.

215
Segunda ejecución (Agosto del año lectivo 2022)

Fase 1: Selección de población y muestra


Se tomó como muestra para la segunda ejecución a los 100 estudiantes de la
ejecución inicial, los cuales se encuentran matriculados en el curso de Historia (Ciencias
Sociales) de nivel secundario de la I.E.P Santiago Antúnez de Mayolo, pertenecen a 5
secciones diferentes y se encuentran agrupados en cantidad de 20 estudiantes por sección.

Tabla 90
Clasificación de estudiantes de la muestra de la segunda ejecución

Secciones Curso Docente Cantidad


5 “A” Historia Grover Basas 20
5 “B” Historia Grover Basas 20
5 “C” Historia Grover Basas 20
5 “D” Historia Grover Basas 20
5 “E” Historia Grover Basas 20

Los 100 estudiantes, mediante el sistema web implementado, realizan nuevamente el


llenado de sus respectivas encuestas en conjunto de su padre, madre o apoderado, en base a
las acciones tomadas por el docente al conocer a aquellos que presentan riesgo de
reprobación. En esta encuesta se habilitan las preguntas ¿Recibió alguna acción de ayuda
estudiantil? y ¿Considera que las acciones de ayuda estudiantil que ha recibido han sido
efectivas en su progreso académico?, únicamente para los estudiantes clasificados como
riesgo, en este caso 20 estudiantes (20%). Los resultados se muestran a continuación:

216
Figura 96

Clasificación de respuestas obtenidas en las encuestas de la segunda ejecución

Nota. La figura muestra la clasificación de las respuestas obtenidas en las encuestas para la
segunda ejecución del sistema predictivo.

Fase 2: Procesamiento de datos

Los datos son procesados por los algoritmos bayesianos y su resultado se almacena
en la tabla EntrenamientoML para realizar el entrenamiento del modelo mediante la clase
NaiveBayesMulticlassTrainer de la librería ML.NET.

Fase 3: Ejecución y predicción

217
Al llevar a cabo la segunda ejecución de la predicción con la información recopilada
en las fases precedentes se obtuvieron los siguientes resultados organizados por sección:

• 5 “A”

Para la sección A, inicialmente, el modelo predijo que 4 estudiantes se


encontraban en riesgo de reprobar el curso de Historia mientras que 16 no, sin
embargo, al aplicar la predicción y las acciones respectivas, para la segunda
ejecución no se obtuvo ni un solo caso de riesgo. Al contrastar esta información con
la real, en efecto ningún estudiante reprobó para la sección.

• 5 “B”

Para la sección B, inicialmente, el modelo predijo que 5 estudiantes se


encontraban en riesgo de reprobar el curso de Historia mientras que 15 no, sin
embargo, al aplicar la predicción y las acciones respectivas, para la segunda
ejecución no se obtuvo ni un solo caso de riesgo. Al contrastar esta información con
la real, en efecto ningún estudiante reprobó para la sección.

• 5 “C”

Para la sección C, inicialmente, el modelo predijo que 3 estudiantes se


encontraban en riesgo de reprobar el curso de Historia mientras que 17 no, sin
embargo, al aplicar la predicción y las acciones respectivas, para la segunda
ejecución no se obtuvo ni un solo caso de riesgo. Al contrastar esta información con
la real, en efecto ningún estudiante reprobó para la sección.

• 5 “D”

Para la sección D, inicialmente, el modelo predijo que 4 estudiantes se


encontraban en riesgo de reprobar el curso de Historia mientras que 16 no, sin
embargo, al aplicar la predicción y las acciones respectivas, para la segunda
ejecución no se obtuvo ni un solo caso de riesgo. Al contrastar esta información con
la real, en efecto ningún estudiante reprobó para la sección.

• 5 “E”

Para la sección E, inicialmente, el modelo predijo que 3 estudiantes se


encontraban en riesgo de reprobar el curso de Historia mientras que 17 no, sin

218
embargo, al aplicar la predicción y las acciones respectivas, para la segunda
ejecución el modelo identificó que 2 de los estudiantes aún permanecían en riesgo.
Al contrastar esta información con la real, solo uno de los estudiantes identificados
como riesgo por el sistema predictivo lo estaba realmente y por consecuente reprobó
el curso. A continuación, se muestra el contraste de lo predicho versus lo real para la
sección:

Figura 97

Predicción vs Real para la sección E de la segunda ejecución

Sección E: Predicho vs Real


19
No Riesgo
18

1
Riesgo
2

0 2 4 6 8 10 12 14 16 18 20

Riesgo No Riesgo
Real 1 19
Predicho 2 18

Fase 4: Aplicación de métricas de calidad

Una vez efectuada la predicción, los resultados obtenidos en la Fase 3 fueron


clasificados en base a las tasas de retorno de los algoritmos clasificadores. Las tasas
obtenidas fueron las siguientes:

Tabla 91
Tasas de retorno obtenidas a partir de los resultados de la segunda ejecución

# Verdaderos Falsos Verdaderos Falsos


Prueba Positivos Positivos (FP) Negativos Negativos
(TP) (TN) (FN)
1 0 0 20 0

219
2 0 0 20 0
3 0 0 20 0
4 0 0 20 0
5 1 1 18 0
Total 1 1 98 0

Nota. La tabla muestra los resultados de la segunda ejecución clasificados en sus respectivas
tasas de retorno.

Con los valores obtenidos para las tasas se realizó la aplicación de las métricas de
eficacia y exactitud para la segunda mitad del año lectivo 2022.

La exactitud obtenida para el modelo en la segunda ejecución fue de 99,0 puntos


porcentuales y su cálculo se detalla en la siguiente ecuación:

𝑇𝑃 + 𝑇𝑁
𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 =
𝑇𝑃 + 𝐹𝑁 + 𝑇𝑁 + 𝐹𝑃

1 + 98
𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 =
1 + 0 + 98 + 1

99
𝐸𝑥𝑎𝑐𝑡𝑖𝑡𝑢𝑑 =
100

𝑬𝒙𝒂𝒄𝒕𝒊𝒕𝒖𝒅 = 𝟗𝟗, 𝟎𝟎%

Adicionalmente, se evidencia el nivel de eficacia de este, tomando en cuenta que, de


un total de 100 estudiantes, se predijeron correctamente 99 los cuales equivalen a la suma
de la tasa de verdaderos positivos más la tasa de verdaderos negativos (TP +TN):

𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠𝑃𝑟𝑒𝑑𝑖𝑐ℎ𝑜𝑠
𝐸𝑓𝑖𝑐𝑎𝑐𝑖𝑎 = × 100%
𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠𝑅𝑒𝑎𝑙𝑒𝑠

99
𝐸𝑓𝑖𝑐𝑎𝑐𝑖𝑎 = × 100%
100

𝑬𝒇𝒊𝒄𝒂𝒄𝒊𝒂 = 𝟗𝟗, 𝟎𝟎%

220
Al finalizar las pruebas realizadas durante la primera y segunda mitad del año escolar
2022, se pudo determinar el número de estudiantes que estaban en peligro de reprobar en la
primera mitad del año y en base a esta información, se identificó cuántos de estos estudiantes
superaron ese riesgo y aprobaron el año escolar después de que el docente implementara
acciones para mejorar su desempeño. Esto permite calcular el porcentaje de estudiantes en
riesgo que lograron aprobar, el cual representa a un 95% de los estudiantes en riesgo, tal
como se muestra a continuación:

(𝐴𝑙𝑢𝑚𝑛𝑜𝑠𝑅𝑖𝑒𝑠𝑔𝑜 − 𝐴𝑙𝑢𝑚𝑛𝑜𝑠𝑅𝑒𝑝𝑟𝑜𝑏𝑎𝑑𝑜𝑠) × 100%


%=
𝐴𝑙𝑢𝑚𝑛𝑜𝑠𝑅𝑖𝑒𝑠𝑔𝑜

(20 − 1) × 100%
%=
20

19 × 100%
%=
20

% = 𝟗𝟓, 𝟎𝟎%

Con la información brindada por parte del docente representante de la institución,


Grover Basas, se pudo determinar el impacto de los resultados sobre el índice de crecimiento
anual de reprobaciones en la institución para el año 2022 contemplando los valores
respectivos del intervalo 2018-2022. Se obtuvo lo siguiente:

Tabla 92
Índice de reprobación estudiantil intervalo 2018-2022
Estudiantes Totales
2018 2019 2020 2021 2022
Secundaria 1191 1095 1054 1023 1113

Estudiantes Desaprobados (%)


2018 2019 2020 2021 2022
Secundaria 93 109 130 205 166
Total (%) 9,09% 10,34% 11,87% 17,21% 14,91%

2018 2019 2020 2021 2022


Índice de reprobación (%): - 13,76% 14,80% 44,98% -13,35%
Índice de crecimiento anual (%): 15,05%

221
Nota. La tabla muestra el índice de reprobación estudiantil en la I.E.P Santiago Antúnez de
Mayolo para el nivel secundario del intervalo 2018-2022, posterior a la implementación del
proyecto. Elaboración propia a partir de cálculos realizados con la información resultante de
la ejecución del proyecto.

Como se puede apreciar en la tabla precedente, el modelo desarrollado, aplicado


únicamente al curso de Historia (Ciencias Sociales) dictado en el nivel secundario de la
institución, pudo contribuir con la disminución del índice de crecimiento anual de las
reprobaciones de 24,52% a 15,05%, lo cual evidencia una disminución de 9,47 puntos
porcentuales para el intervalo lectivo 2018-2022.

Dicho valor fue obtenido aplicando la siguiente fórmula:

𝐷𝑖𝑓𝐼𝑛𝑑𝑅𝑒𝑝 = 𝐼𝑛𝑑𝑅𝑒𝑝𝐴𝑛𝑡 − 𝐼𝑛𝑑𝑅𝑒𝑝𝐷𝑒𝑠𝑝

𝐷𝑖𝑓𝐼𝑛𝑑𝑅𝑒𝑝 = 24,51% − 15,05%

𝑫𝒊𝒇𝑰𝒏𝒅𝑹𝒆𝒑 = 𝟗, 𝟒𝟕%

Al cumplir satisfactoriamente todos y cada uno de los objetivos específicos del


proyecto se da por cumplido el objetivo general de este, el cual es desarrollar un sistema web
para predecir estudiantes en riesgo académico basado en Algoritmos Bayesianos en centros
de estudio de nivel secundario en Lima Metropolitana para contribuir con la disminución del
índice de reprobación estudiantil a nivel institucional.

En el presente estudio, los resultados y evidencias de cumplimiento de objetivos se


limitan a la institución objetivo, la cual es la I.E.P. Santiago Antúnez de Mayolo, y al
intervalo lectivo 2018-2022.

Para garantizar que se hayan cumplido con las expectativas del usuario, se solicitó la
aprobación del cumplimiento de los indicadores de éxito del proyecto a través de un acta la
cual se puede visualizar en el Anexo 16: Aprobación del cumplimiento de los indicadores
del proyecto.

222
4.4 Conclusiones
Como se puede apreciar en el presente capítulo, se han podido cumplir con todos y
cada uno de los objetivos establecidos para el proyecto en la fase de iniciación del punto
1.2.1. Cada cumplimiento se encuentra evidenciado mediante la aplicación de sus
respectivas métricas. Adicionalmente, el usuario manifestó su conformidad con respecto al
cumplimiento de cada uno de los indicadores considerados en el presente proyecto, lo cual
nos indica que la ejecución de este ha sido exitosa.

CAPÍTULO V – GESTIÓN DEL PROYECTO


En el presente capítulo se presentan y detallan cada uno de los planes de gestión
considerados para llevar a cabo el presente proyecto.

5.1 Planificación del Proyecto


En esta sección se detallan los planes para la gestión del presente proyecto.

223
5.1.1 Plan de Gestión del Alcance (EDT)
Para definir el alcance del presente proyecto se ha realizado el siguiente esquema de desglose de trabajo (EDT):

Figura 98
EDT del proyecto

Sistema web para predicción de riesgo académico en centros de estudio de nivel


secundario en Lima Metropolitana basado en algoritmos bayesianos

1.1 Ini ciación 1.2 Pl a nificación 1.3 Ejecución 1.4 Ci erre

1.1.2 Desarrollo 1.1.3 Fa cti bilidad 1.4.1 Ci erre


1.1.1 Análisis de la 1.2.1 Documentos 1.3.1 Artefa ctos 1.3.2 Arqui tectura 1.3.3 Ca l idad de 1.3.4 Desarrollo de
de plan de del Proyecto de l a Gestión
Orga nización proyecto de Gestión Ági les Software Software
del Proyecto

1.1.3.1 1.3.2.1 1.4.2


1.2.1.1 Pl a n de
Fa ctibilidad 1.3.1.1 Product Prototi pos 1.3.3.1 Pl a n de 1.3.4.1 1.3.4.2 1.3.4.3 Va l idación
Económica Ges tión de Alcance Al to Nivel
(EDT) Vi s ion Board Ges tión de Spri nt 1 Spri nt 2 Spri nt 3 del
Ca l idad cumplimiento
de l os
1.1.3.2 1.2.1.2 Pl a n de 1.3.2.2 Indicadores y
Fa ctibilidad Ges tión del Arqui tectura 1.3.4.2.1 Spri nt 1.3.4.3.1 Spri nt Objetivos
Técnica 1.3.1.2 Product 1.3.4.1.1 Spri nt
Cronograma o Técnica Base Pl a nning Pl a nning Pl a nning
Ti empo Ca nvas
1.4.3
1.3.4.2.2 1.3.4.3.2 Opti mización
1.3.2.3 1.3.4.1.2 Cons trucción del
1.2.1.3 Pl a n de Cons trucción del y Ajus tes
1.3.1.3 Di a grama Arqui tectura Cons trucción del Spri nt
Ges tión del Costo Spri nt Spri nt Fi nales del
Pers ona del de Software Producto/Ser
Sta keholder vi ci o
1.3.4.1.3 1.3.4.2.3 Ejecución 1.3.4.3.3 Ejecución
1.2.1.4 Pl a n de Ejecución de de Pruebas de Pruebas
Ges tión de Calidad Pruebas 1.4.4
1.3.1.4 Product Refinamiento
Ba cklog Base 1.3.4.2.4 1.3.4.3.4 s Fi nales del
1.3.4.1.4 Proyecto
Implementación de Implementanción de
Implementación s ervicios Azure s ervicios Azure
1.2.1.5 Pl a n de de s ervicios Azure
Ges tión del Riesgo 1.4.5
1.3.1.5 Roa dMap 1.3.4.3.5 Spri nt
del producto 1.3.4.2.5 Spri nt Desarrollo de
1.3.4.1.5 Spri nt Revi ew Revi ew Concl usiones
Revi ew Es tra tégicas y
1.2.1.6 Pl a n de
Recomendaci
Ges tión de
Comunicaciones 1.3.4.1.6 Spri nt 1.3.4.2.6 Spri nt 1.3.4.3.6 Spri nt ones de
1.3.1.6 Ta blero Retrospective Retrospective Retrospective Merca do
Scrum Base
1.2.1.7 Pl a n de
Ges tión de 1.3.4.1.7 1.3.4.2.7 1.3.4.3.7
Interesados Refinamiento del Refinamiento del Refinamiento del
Product Backlog Product Backlog Product Backlog

224
225
El alcance del presente proyecto se detalla a continuación:

Tabla 93

Alcance del proyecto

I.- DESARROLLO DE LA PROPUESTA


1. DESCRIPCIÓN DEL PRODUCTO DEL PROYECTO
Con el presente proyecto se busca incorporar a la institución, mediante el diseño e implementación
de una aplicación web, un enfoque de análisis predictivo para fomentar el apoyo por parte de ésta
hacia su alumnado, con la finalidad de detectar anticipadamente a los estudiantes en riesgo de
reprobación y contribuir de esta manera a que ello no suceda.
Con la implementación de este software basado en un modelado predictivo de riesgo académico,
la institución educativa podrá tener una base de sustento para la toma de decisiones y podrá brindar
un soporte académico pertinente a su alumnado de nivel secundaria.

La aplicación web se desarrollará en el lenguaje de programación C# .NET

-Se utilizará los servicios web desarrollados en Net Framework para el registro de datos que luego
serán utilizados para entrenar al algoritmo bayesiano.

La aplicación contará con los siguientes perfiles:

• Estudiante: El estudiante mediante este perfil podrá llenar las encuestas que servirán para
guardarlos en la base de datos y posteriormente entrenar al algoritmo.

• Docente: El docente mediante este perfil se podrán realizar las predicciones de estudiantes en
riesgo, el docente podrá elegir la acción más apropiada a realizar en base a los resultados
predictivos obtenidos.

• Administrador: El administrador mediante este perfil podrá observar los reportes de predicción
obtenidos.

2. DESCRIPCIÓN DE LOS ENTREGABLES DEL PROYECTO


ENTREGABLE DESCRIPCIÓN

Plan de Gestión del Alcance Documento que determina el alcance del


proyecto. Es entregado en la fase de
planificación.

Plan de Gestión del Cronograma Documento que contiene la asignación de


tiempos a las actividades del proyecto. Es
entregado en la fase de planificación.

Plan de Gestión del Costo Documento que contiene la asignación de


costos a las actividades del proyecto. Es
entregado en la fase de planificación.

226
Plan de Gestión de Calidad Documento que contiene el plan para
garantizar la calidad del proyecto. Es entregado
en la fase de planificación.

Plan de Gestión del Riesgo Documento que contiene los riesgos previstos
para el proyecto con su respectivo impacto y
estrategias para contrarrestarlo. Es entregado
en la fase de planificación.

Plan de Gestión del Comunicaciones Documento que contiene las guías de eventos
y comunicaciones dentro del proyecto. Es
entregado en la fase de planificación.

Plan de Gestión de Interesados Documento que contiene los roles y


necesidades de los interesados del proyecto. Es
entregado en la fase de planificación.

Calidad de Software Documento que contiene el plan de Pruebas del


Proyecto

Artefactos ágiles Documento que contiene el Product Vision


Board, Product Canvas, Diagrama Persona del
Stakeholder, Product Backlog Base, Product
RoapMap y el Tablero Scrum Base del
proyecto. Es entregado en la fase de ejecución
del proyecto.

Arquitectura del proyecto Documento que contiene los prototipos de alto


nivel y la arquitectura técnica del proyecto. Es
entregado en la fase de ejecución del proyecto.

Entregable del Incremento 1 Primer entregable funcional del proyecto. Es


entregado en la fase de ejecución del proyecto.

Entregable del Incremento 2 Segundo entregable funcional del proyecto. Es


entregado en la fase de ejecución del proyecto.

Entregable del Incremento 3 Tercer entregable funcional del proyecto. Es


entregado en la fase de ejecución del proyecto.

Entrega Final del Proyecto Entrega funcional final y completa del


proyecto al Product Owner. Es entregado en la
fase de cierre del proyecto.

II.- CONTEXTO DEL PROYECTO

3. EXCLUSIONES DEL PROYECTO


El proyecto es aplicable solo a instituciones particulares de nivel secundario en Lima
Metropolitana.
4. RESTRICCIONES

227
Restricciones Descripción
Acceso Limitado a la Para llevar a cabo el entrenamiento del modelo predictivo y las
información pruebas del presente proyecto se cuenta solo con información histórica
del curso de Ciencias Sociales (Historia) de la institución objetivo.
5. ASUNCIONES
- Se contará con la disponibilidad permanente e inmediata de los recursos involucrados en el
proyecto.

228
5.1.2 Plan de Gestión del Cronograma
A continuación, se mencionan de manera detallada las actividades que componen el
proyecto:

Tabla 94

Paquetes de Trabajo y Actividades del Proyecto

Actividades o Tareas
Paquete de
Trabajo
Restricción Fecha
Cód. Nombre Alcance del trabajo Predecesor Responsable
o supuestos impuesta

Analizar la Encontrar el problema para plantear


1.1.1 - - 16/08/2021 Team Scrum
Organización la solución

Desarrollo del plan Plan detallado que establece las


-
1.1.2 del proyecto actividades, los hitos y los recursos. 1.1.1 17/08/2021 Team Scrum

Elaborar la
Factibilidad Determinar si el proyecto es factible
1.1.2 -
1.1 Iniciación 1.1.3.1 Económica del económicamente 18/08/2021 Team Scrum
proyecto
Elaborar la
Determinar si el proyecto es factible
Factibilidad Técnica 1.1.3.1 -
1.1.3.2 técnicamente 19/08/2021 Team Scrum
del proyecto

Elaborar Plan de Determinar el alcance del proyecto 1.1.3.2 -


1.2.1.1 Gestión del Alcance 20/08/2021 Team Scrum

Elaborar Plan de Asignar los tiempos por actividad del


-
1.2.1.2 Gestión del proyecto 1.2.1.1 23/08/2021 Team Scrum
Cronograma

Elaborar Plan de Asignar los costos por actividad del


-
1.2.1.3 proyecto 1.2.1.2 24/08/2021 Team Scrum
1.2. Gestión del Costo
Planificació
n Determinar el plan de gestión de
Elaborar Plan de -
1.2.1.4 calidad del proyecto 1.2.1.3 25/08/2021 Team Scrum
Gestión de Calidad

Elaborar Plan de Detectar los riesgos del proyecto -


1.2.1.5 1.2.1.4 26/08/2021 Team Scrum
Gestión del Riesgo

Elaborar Plan de Determinar la gestión de


-
1.2.1.6 Gestión de comunicaciones del proyecto 1.2.1.5 27/08/2021 Team Scrum
Comunicaciones

Elaborar Plan de Determinar los interesados del


-
1.2.1.7 Gestión de proyecto para garantizar satisfacción 1.2.1.6 30/08/2021 Team Scrum
Interesados

Elaboración del
Elaboración del Product Vision
Product Vision -
Board del proyecto 1.2.1.7 07/09/2021 Team Scrum
1.3.1.1 Board

Elaboración del
Elaboración del Product Canvas del - 08/09/2021
Product Canvas Team Scrum
1.3.1.2 proyecto 1.3.1.1

1.3
Elaboración del Elaboración del Diagrama Persona
Ejecución - 09/09/2021
Diagrama Persona del Stakeholder Team Scrum
1.3.1.3 1.3.1.2
del Stakeholder

229
Elaboración del
Elaboración del Product Backlog -
Product Backlog 09/09/2021 Team Scrum
Base del proyecto
1.3.1.4 Base 1.3.1.3

Elaboración del
RoadMap del Elaboración del RoadMap del - 13/09/2021
Team Scrum
1.3.1.5 Producto Producto 1.3.1.4

Elaboración del -
Elaboración del Tablero Scrum Base 13/09/2021 Team Scrum
Tablero Scrum Base
1.3.1.6 1.3.1.5

Elaboración de los Elaboración de los Prototipos de alto


Prototipos de alto - 14/09/2021 Team Scrum
nivel del proyecto
1.3.2.1 1.3.1.6
nivel

Elaboración de la
Elaboración de la arquitectura técnica -
arquitectura técnica 15/09/2021 Team Scrum
base del proyecto
1.3.2.2 base 1.3.2.1

Elaboración de la
Elaboración de la arquitectura de
arquitectura de - 15/09/2021 Team Scrum
software del proyecto
software 1.3.2.2
1.3.2.3

Elaboración del
Elaboración del Plan de Pruebas del
1.3.3.3.1 Plan de Gestión de - 16/09/2022 Team Scrum
Proyecto
Calidad 1.3.2.3

Consolidación del
Consolidación del Sprint Planning
1.3.4.1.1 Sprint Planning 1.3.3.3.1 - 01/08/2022 Team Scrum
del Sprint 1
del Sprint 1

Construcción del
1.3.4.1.2 Construcción del Sprint 1 1.3.4.1.1 - 02/08/2022
Sprint 1 Team Scrum

Ejecución de
1.3.4.1.3 Pruebas del Sprint Ejecución de Pruebas del Sprint 1 1.3.4.1.2 - 31/08/2022
Team Scrum
1

Implementación
1.3.4.1.4 Implementar los servicios azure 1.3.4.1.3 - 05/09/2022
Servicios Azure Team Scrum

Consolidación del
Consolidación del Sprint Review del
1.3.4.1.5 Sprint Review del 1.3.4.1.4 - 05/09/2022 Team Scrum
Sprint 1
Sprint 1

Consolidación del
Sprint Consolidación del Sprint
1.3.4.1.6 1.3.4.1.5 - 06/09/2022
Retrospective del Retrospective del Sprint 1 Team Scrum
Sprint 1

Refinamiento del
1.3.4.1.7 Refinamiento del Product Backlog 1.3.4.1.6 - 07/09/2022
Product Backlog Team Scrum

Consolidación del
Consolidación del Sprint Planning
Sprint Planning 1.3.4.1.7 - 08/09/2022
1.3.4.2.1 del Sprint 2 Team Scrum
del Sprint 2

Construcción del
1.3.4.2.2 Construcción del Sprint 2 1.3.4.2.1 - 09/09/2022 Team Scrum
Sprint 2

230
Ejecución de
1.3.4.2.3 Pruebas del Sprint Ejecución de Pruebas del Sprint 2 1.3.4.2.2 - 10/10/2022 Team Scrum
2

Implementación
1.3.4.2.4 Implementar los servicios azure 1.3.4.2.3 - 12/10/2022
Servicios Azure Team Scrum

Consolidación del
Consolidación del Sprint Review del
1.3.4.2.5 Sprint Review del 1.3.4.2.4 - 13/10/2022
Sprint 2 Team Scrum
Sprint 2

Consolidación del
Sprint Consolidación del Sprint
1.3.4.2.6 1.3.4.2.5 - 14/10/2022 Team Scrum
Retrospective del Retrospective del Sprint 2
Sprint 2

Refinamiento del
1.3.4.2.7 Refinamiento del Product Backlog 1.3.4.2.6 - 17/10/2022
Product Backlog Team Scrum

Consolidación del
Consolidación del Sprint Planning
1.3.4.3.1 Sprint Planning 1.3.4.2.7 - 18/10/2022
del Sprint 3 Team Scrum
del Sprint 3

Construcción del
1.3.4.3.2 Construcción del Sprint 3 1.3.4.3.1 - 19/10/2022
Sprint 3 Team Scrum

Ejecución de
1.3.4.3.3 Pruebas del Sprint Ejecución de Pruebas del Sprint 3 1.3.4.3.2 - 17/11/2022 Team Scrum
3

Implementación
1.3.4.3.4 Implementar los servicios azure 1.3.4.3.3 - 22/11/2022
Servicios Azure Team Scrum

Consolidación del
1.3.4.3.5 Sprint Review del Implementación Servicios Azure 1.3.4.3.4 - 23/11/2022
Team Scrum
Sprint 3

Consolidación del
Sprint Consolidación del Sprint
1.3.4.3.6 1.3.4.3.5 - 24/11/2022
Retrospective del Retrospective del Sprint 3 Team Scrum
Sprint 3

Refinamiento del
1.3.4.3.7 Refinamiento del Product Backlog 1.3.4.3.6 - 25/11/2022
Product Backlog Team Scrum

Cierre de la
Gestión del Cierre de la Gestión del Proyecto 1.3.4.3.7 - 28/11/2022
1.4.1 Team Scrum
Proyecto

Validación del
cumplimiento de Validación del cumplimiento de los
1.4.2 1.4.1 - 01/12/2022 Team Scrum
los Indicadores y Indicadores y Objetivos
Objetivos
1.4
Cierre Implementación de mejoras y
Optimización y
refinamientos basados en los
Ajustes Finales del 1.4.2 - 02/12/2022
1.4.3 hallazgos de la evaluación de Team Scrum
Producto/Servicio
mercado y análisis de rendimiento.

Refinamientos
Finales del Refinamientos Finales del Proyecto 1.4.3 - 05/12/2022
1.4.4 Team Scrum
Proyecto

231
Desarrollo de
Identificación de oportunidades de
Conclusiones
mercado emergentes y
1.4.5 Estratégicas y 1.4.4 - 08/12/2022 Team Scrum
recomendaciones estratégicas para
Recomendaciones
capitalizarlas.
de Mercado

232
Para asegurar la calidad del proyecto, se han determinados los siguientes puntos de
control o hitos:

Tabla 95
Hitos del Proyecto
A. HITOS DE PROYECTO
Hitos EDT/WBS Fecha Descripción

H1: Aprobación de factibilidad Aprobación de la factibilidad del


1.1.4 20/08/2021 proyecto por el representante de la
del proyecto
I.E.P. Santiago Antúnez de Mayolo.
Aprobación de los documentos de
H2: Aprobación de la 1.2.2 07/09/2021 gestión por el representante de la I.E.P.
planificación del proyecto
Santiago Antúnez de Mayolo
H3: Aprobación de la arquitectura Aprobación de la arquitectura del
1.3.2.4 16/09/2021 proyecto por el representante de la
del proyecto
I.E.P. Santiago Antúnez de Mayolo
Aprobación del plan de calidad del
H4: Aprobación del Plan de
1.3.3.2 20/09/2021 proyecto por el representante de la
Gestión de Calidad
I.E.P. Santiago Antúnez de Mayolo

Aprobación del Entregable 1 por parte


H5: Aprobación del Entregable 1 1.3.4.1.8 08/09/2022 del representante de la I.E.P. Santiago
Antúnez de Mayolo

Aprobación del Entregable 2 por parte


H6: Aprobación del Entregable 2 1.3.4.2.8 18/10/2022 del representante de la I.E.P. Santiago
Antúnez de Mayolo

Aprobación del Entregable 3 por parte


H7: Aprobación del Entregable 3 1.3.4.3.8 28/11/2022 del representante de la I.E.P. Santiago
Antúnez de Mayolo

Entrega y aprobación final del proyecto


H8: Entrega final del proyecto 1.4.6 15/12/2022 a la I.E.P. Santiago Antúnez de Mayolo
y jurado de tesis UPC

A continuación, se muestra la duración estimada por cada actividad en días:

Tabla 96
Estimación de días por actividad

Paquete de Duración Supuesto / Bases de Mínima Probabil Máxima


Actividades Probabili
Trabajo días estimación duración días idad duración
dad
días

Analizar la Organización 2 Juicio de expertos 1


8% 2 92%

Desarrollo del plan del proyecto 1


1.1 Iniciación 1 Juicio de expertos 100% 1 100%

233
Elaborar la Factibilidad Económica del
2 Juicio de expertos 1
proyecto 10% 2 90%

Elaborar la Factibilidad Técnica del


1 Juicio de expertos 1
proyecto 100% 1 100%

Elaborar Plan de Gestión del Alcance 2 Juicio de expertos 1 22% 2 78%

Elaborar Plan de Gestión del 1 1


Juicio de expertos 100% 1 100%
Cronograma

1 1
Elaborar Plan de Gestión del Costo Juicio de expertos 100% 1 100%
1.2.
Planificació
n
2 1
Elaborar Plan de Gestión de Calidad Juicio de expertos 10% 2 90%

2 1
Elaborar Plan de Gestión del Riesgo Juicio de expertos 35% 2 65%

Elaborar Plan de Gestión de 2 1


Juicio de expertos 40% 2 60%
Comunicaciones

Elaborar Plan de Gestión de Interesados 2 Juicio de expertos 1 45% 2 55%

Elaboración del Product Vision Board 2 Juicio de expertos 1 35% 2 65%

Elaboración del Product Canvas Juicio de expertos 1 100%


1 1 100%

Elaboración del Diagrama Persona del 1 Juicio de expertos 1 100%


1 100%
Stakeholder

Elaboración del Product Backlog Base 3 2


Juicio de expertos 22% 3 78%

Elaboración del RoadMap del Producto Juicio de expertos 1 100%


1 1 100%

Elaboración del Tablero Scrum Base 2 1


1.3 Juicio de expertos 35% 2 65%
Ejecución

Elaboración de los Prototipos de alto 2 Juicio de expertos 1 24%


2 76%
nivel

Elaboración de la arquitectura técnica 1


1 Juicio de expertos 100% 1 100%
base

Elaboración de la arquitectura de
1 Juicio de expertos 1 100% 1 100%
software

Elaboración del Plan de Gestión de


3 Juicio de expertos 2 13%
Calidad 3 87%

234
Consolidación del Sprint Planning del
1 Juicio de expertos 1 100% 1 100%
Sprint 1

Construcción del Sprint 1 22 Juicio de expertos 20 2% 22 98%

Ejecución de Pruebas del Sprint 1 3 Juicio de expertos 2 5%


3 95%

Implementación de servicios Azure 1 Juicio de expertos 1 100%


1 100%

Consolidación del Sprint Review del


1 Juicio de expertos 1 100% 1 100%
Sprint 1

Consolidación del Sprint Retrospective


1 Juicio de expertos 1 100%
del Sprint 1 1 100%

Refinamiento del Product Backlog 1 Juicio de expertos 1 100%


1 100%

Consolidación del Sprint Planning del


1 Juicio de expertos 1 100%
Sprint 2 1 100%

Construcción del Sprint 2 22 Juicio de expertos 19 12%


22 88%

Ejecución de Pruebas del Sprint 2 2 Juicio de expertos 1 7%


2 93%

Implementación de servicios Azure 1 Juicio de expertos 1 100% 1 100%

Consolidación del Sprint Review del


1 Juicio de expertos 1 100%
Sprint 2 1 100%

Consolidación del Sprint Retrospective


1 Juicio de expertos 1 100%
del Sprint 2 1 100%

Refinamiento del Product Backlog 1 Juicio de expertos 1 100%


1 100%

Consolidación del Sprint Planning del


1 Juicio de expertos 1 100% 1 100%
Sprint 3

Construcción del Sprint 3 22 Juicio de expertos 17 8%


22 92%

235
Ejecución de Pruebas del Sprint 3 2 Juicio de expertos 1 5% 2 95%

Implementación de servicios Azure 1 Juicio de expertos 1 100% 1 100%

Consolidación del Sprint Review del


1 Juicio de expertos 1 100%
Sprint 3 1 100%

Consolidación del Sprint Retrospective


1 Juicio de expertos 1 100%
del Sprint 3 1 100%

Refinamiento del Product Backlog 1 Juicio de expertos 1 100% 1 100%

Cierre de la Gestión del Proyecto 3 Juicio de expertos 2 20%


3 80%

Validación del cumplimiento de los


1 Juicio de expertos 1 100%
Indicadores y Objetivos 1 100%

Optimización y Ajustes Finales del


1.4 1 Juicio de expertos 1 100%
Producto/Servicio 1 100%
Cierre

Refinamientos Finales del Proyecto 3 Juicio de expertos 2 44%


3 56%

Desarrollo de Conclusiones
Estratégicas y Recomendaciones de 2 Juicio de expertos 1 35%
2 65%
Mercado

Para resumir la información presentada anteriormente, se ha realizado el cronograma


(GANTT):

236
Figura 99

Cronograma del proyecto (GANTT)

237
5.1.3 Plan de Gestión del Costo
A continuación, se muestra el costo del proyecto clasificado por entregable, actividad
y tipo de recurso:

Tabla 97

Costo del proyecto

COSTEO DEL PROYECTO


Tipo Recurso: Personal Tipo Recurso: Tecnológico
Entregable Actividad Costo Costo Costo Costo
QTY QTY
Recurso Unid. Recurso Unid.
. Unit. Total . Unit. Total

Horas 12 S/32.25 S/387.00 - - - - -

Horas 12 S/32.25 S/387.00 - - - - -


Desarrollo del Elaborar Plan del Integrante del
plan del Proyecto Team Scrum
Horas 12 S/32.25 S/387.00 - - - - -
proyecto
Horas 12 S/32.25 S/387.00 - - - - -

Plan de Elaborar Plan de


Integrante del
Gestión del Gestión del Horas 25 S/32.25 S/806.25 - - - - -
Team Scrum
Alcance Alcance
Plan de Elaborar Plan de
Gestión del Gestión del Product Owner Horas 25 S/50.00 S/1,250.00 - - - - -
Cronograma Cronograma
Plan de
Elaborar Plan de
Gestión del Scrum Master Horas 30 S/43.75 S/1,312.50 - - - - -
Gestión del Costo
Costo
Plan de Elaborar Plan de
Gestión de Gestión de Product Owner Horas 30 S/50.00 S/1,500.00 - - - - -
Calidad Calidad
Plan de Elaborar Plan de
Gestión del Gestión del Product Owner Horas 8 S/50.00 S/400.00 - - - - -
Riesgo Riesgo
Plan de
Elaborar Plan de
Gestión del
Gestión de Scrum Master Horas 8 S/43.75 S/350.00 - - - - -
Comunicacione
Comunicaciones
s
Plan de Elaborar Plan de
Gestión de Gestión de Scrum Master Horas 12 S/43.75 S/525.00 - - - - -
Interesados Interesados
Elaboración del
Product Vision Scrum Master Horas 8 S/43.75 S/350.00 - - - - -
Board
Elaboración del
Product Owner Horas 7 S/50.00 S/350.00 - - - - -
Product Canvas
Elaboración del
Diagrama Persona Scrum Master Horas 6 S/43.75 S/262.50 - - - - -
del Stakeholder
Artefactos
Elaboración del
ágiles
Product Backlog Product Owner Horas 26 S/50.00 S/1,300.000 - - - - -
Base
Elaboración del
RoadMap del Product Owner Horas 8 S/50.00 S/400.00 - - - - -
Producto
Elaboración del
Integrante del
Tablero Scrum Horas 18 S/32.25 S/580.50 - - - - -
Team Scrum
Base

238
Elaboración de los
Integrante del
Prototipos de alto Horas 20 S/32.25 S/645.00 - - - - -
Team Scrum
nivel
Elaboración de la
Integrante del
arquitectura Horas 20 S/32.25 S/645.00 - - - - -
Team Scrum
técnica base
Arquitectura
Horas 30 S/967.50 - - - - -
del proyecto S/32.25

Elaboración de la Horas 10 S/322.50 - - - - -


Integrante del S/32.25
arquitectura de
Team Scrum
software Horas 10 S/322.50 - - - - -
S/32.25

Horas 10 S/322.50 - - - - -
S/32.25
Elaboración del
Calidad de Integrante del
Plan de Pruebas Horas 30 S/32.25 S/967.50 - - - - -
Software Team Scrum
del Proyecto
App plan
Mensual 1 S/416.10
service

Key Vaults Mensual 1 S/19.00

Api
Mensual 1 S/558.60
Management
Horas 100 S/32.25 S/2,888.26
S/3,225.00 Azure Database Mensual 1 S/1,110.80
Azure Monitor Mensual 1 S/4.00
Azure Active
Mensual 1 S/95.76
Directory

Entregable del Elaboración del Integrante del


Azure DNS Mensual 1 S/684.00
Incremento 1 Sprint 1 Team Scrum

Horas
100 S/32.25 - - - - -
S/3,225.00

Horas
50 S/32.25 - - - - -
S/1,612.50

Horas 50 S/32.25 - - - - -
S/1,612.50

App plan
Mensual 1 S/416.10
service
Key Vaults Mensual 1 S/19.00
Api
Mensual 1 S/558.60
Management
Horas S/2,888.26
100 S/32.25 Azure Database Mensual 1 S/1,110.80
S/3,225.00
Azure Monitor Mensual 1 S/4.00
Entregable del Elaboración del Integrante del Azure Active
Mensual 1 S/95.76
Incremento 2 Sprint 2 Team Scrum Directory
Azure DNS Mensual 1 S/684.00
Horas
100 S/32.25 - - - - -
S/3,225.00
Horas
50 S/32.25 - - - - -
S/1,612.50
Horas
50 S/32.25 - - - - -
S/1,612.50
App plan
Mensual 1 S/416.10
service
Key Vaults Mensual 1 S/19.00
Api
Entregable del Elaboración del Integrante del Mensual 1 S/558.60
Horas Management S/2,888.26
Incremento 3 Sprint 3 Team Scrum 100 S/3,225.00
S/32.25 Azure Database Mensual 1 S/1,110.80
Azure Monitor Mensual 1 S/4.00
Azure Active
Mensual 1 S/95.76
Directory

239
Azure DNS Mensual 1 S/684.00

Horas - - - - -
100 S/32.25 S/3,225.00

Horas
50 S/32.25 S/1,612.50 - - - - -

Horas
50 S/32.25 S/1,612.50 - - - - -

Entrega Final Entrega final del Integrante del


Horas 48 S/1,548.00 - - - - -
del Proyecto Proyecto Team Scrum
S/32.25

TOTAL RECURSO PERSONAL: S/45,700.25 TOTAL RECURSO TECNOLÓGICO: S/8,664.78

TOTAL COSTO EN RECURSOS: S/54,365.03

RESERVA DE CONTINGENCIA: S/3,568.40

RESERVA DE GESTIÓN: S/3,218.20

TOTAL COSTO DEL PROYECTO: S/61,151.63

Para el costo mensual por servicios de la nube, se tomaron como referencia los
montos actuales publicados oficialmente por Azure uno (Ver anexo 18).

El tipo de cambio que se están tomando para los gastos de servicios azure es de S/3.799

• Para el servicio App plan service se esta tomando el plan de $109.52


• Para el rol Key Vaults se esta tomando el plan de $5.00
• Para el rol Api Management se esta tomando el plan de $147.03
• Para el servicio Azure Database se esta tomando el plan de $292.3
• Para el rol Azure Monitor (2) se esta tomando el plan de $0.52
• Para el rol Azure Active Directory (3) se esta tomando el plan de $8.40
• Para el rol Azure DNS se esta tomando el plan de $180.04

Para los respectivos sueldos de los involucrados en la gestión del costo se hizo una
división por un total de 160 horas tomando como referencia el promedio que gana cada uno
(Ver anexo 19).

• Para el rol Senior Machine Learning se esta tomando como un sueldo base de S/5,160.00
• Para el rol Product Owner se esta tomando como un sueldo base de S/8,000.00
• Para el rol Scrum Master se esta tomando como un sueldo base de S/7,000.00

Los costos relacionados a las reservas de gestión y contingencia se definieron por cada
riesgo potencial que enfrenta el proyecto. Dichos montos están definidos y sustentados en el
Plan de Gestión del Riesgo del punto 5.1.5.

240
Para mayor entendimiento, a continuación, se muestra el presupuesto del proyecto por
Fase y Entregable (Ver Tabla 98), por Fase y Tipo de Recurso (Ver Tabla 99) y por Semana
(Ver Tabla 100):

Tabla 98

Presupuesto del proyecto (Por Fase y por Entregable)


PRESUPUESTO DEL PROYECTO (Por Fase y por Entregable)

Proyecto Fase Entregable Monto

1. Iniciación 1.1 Elaborar Plan del Proyecto S/1,548.00

Total Fase de Iniciación S/1,548.00

2.1 Plan de Gestión del Alcance S/806.25

2.2 Plan de Gestión del Cronograma S/1,250.0

2.3 Plan de Gestión del Costo S/1,312.50

2. Planificación 2.4 Plan de Gestión de Calidad S/1,500.00


Sistema web
2.5 Plan de Gestión del Riesgo S/400.00
para
predicción de 2.6 Plan de Gestión del Comunicaciones S/350.00
riesgo de
2.7 Plan de Gestión de Interesados S/525.00
reprobación en
centros de Total Fase de Planificación S/6,143.75

estudio de 3.1 Artefactos ágiles S/3,243.00


Lima
3.2 Arquitectura del proyecto S/3,225.00
Metropolitana
basado en 3.3 Calidad de Software S/967.50
3. Ejecución
algoritmos 3.4 Entregable del Incremento 1 S/12,563.26
bayesianos
3.8 Entregable del Incremento 2 S/12,563.26

3.11 Entregable del Incremento 3 S/12,563.26

Total Fase de Ejecución S/45,125.28

4. Cierre 4.1 Entrega Final del Proyecto S/1,548.00

Total Fase de Cierre S/1,548.00

Total Fases S/54,365.03

Reserva de Contingencia S/3,568.40

241
S/
LÍNEA BASE DEL COSTO
57,933.43

Reserva de Gestión S/3,218.20

S/
PRESUPUESTO DEL PROYECTO
61,151.63

Tabla 99
Presupuesto del proyecto (Por Fase y por Tipo de Recurso)
PRESUPUESTO DEL PROYECTO (Por Fase y por Tipo de Recurso)

Proyecto Fase Tipo de Recurso Monto

Personal S/1,548.00

1. Iniciación Tecnológico -

Otros -

Total Fase de Iniciación S/1,548.00

Personal S/6,143.70
Sistema web
2. Planificación Tecnológico -
para predicción
de riesgo de Otros -

reprobación en
Total Fase de
centros de S/6,143.70
Planificación
estudio de Lima
Personal S/7,435.50
Metropolitana
basado en 3. Ejecución Tecnológico S/37,689.78
algoritmos
Otros -
bayesianos
Total Fase de Ejecución S/45,125.28

Personal S/1.548,00

4. Cierre Tecnológico -

Otros -

Total Fase de Cierre S/1,548.00

Total Fases S/54,365.03

Reserva de Contingencia S/3,568.40

242
LÍNEA BASE DEL COSTO S/ 57,933.43

Reserva de Gestión S/3,218.20

PRESUPUESTO DEL PROYECTO S/ 61,151.63

Tabla 100
Presupuesto del proyecto (Por Semana)
PRESUPUESTO DEL PROYECTO (Por semana)

Proyecto Semana Nro. Costo S/ por semana Costo acumulado por semana

Semana 01 S/774.00 S/774.00

Semana 02 S/774.00 S/1,548.00

Semana 03 S/3,071.875 S/4,619.87

Semana 04 S/3,071.875 S/7,691.75

Semana 05 S/3,234.00 S/10,925.75

Semana 06 S/3,234.00 S/14,159.75

Sistema web para Semana 07 S/967.50 S/15,127.25


predicción de
Semana 08 S/2,512.652 S/17,639.90
riesgo académico
en centros de Semana 09 S/2,512.652 S/20,152.55

estudio de nivel
Semana 10 S/2,512.652 S/22,665.20
secundario en
Semana 11 S/2,512.652 S/25,177.85
Lima
Metropolitana Semana 12 S/2,512.652 S/27,690.51
basado en
Semana 13 S/2,512.652 S/30,203.16
algoritmos
bayesianos Semana 14 S/2,512.652 S/32,715.81

Semana 15 S/2,512.652 S/35,228.46

Semana 16 S/2,512.652 S/37,741.19

Semana 17 S/2,512.652 S/40,253.77

Semana 18 S/2,512.652 S/42,766.42

Semana 19 S/2,512.652 S/45,279.07

Semana 20 S/2,512.652 S/47,791.72

243
Semana 21 S/2,512.652 S/50,304.37

Semana 22 S/2,512.652 S/52,817.02

Semana 23 S/774.00 S/53,591.02

Semana 24 S/774.00 S/54,365.03

Total Fases S/54,365.03

Reserva de Contingencia S/3,568.40

LÍNEA BASE DEL COSTO S/ 57,933.43

Reserva de Gestión S/3,218.20

PRESUPUESTO DEL PROYECTO S/ 61,151.63

5.1.4 Plan de Gestión de Calidad


Para garantizar la calidad del presente proyecto se tomarán en cuenta los siguientes
puntos:

5.1.4.1 Política de Calidad


La política de calidad del presente proyecto es la siguiente:

Tabla 101

Política de Calidad

POLÍTICA DE CALIDAD DEL PROYECTO


CONTROL DE LA CALIDAD

• El Scrum Master se encargará que todos los entregables se cumplan como esta
propuesto en el cronograma.
• El PO se encargará de la revisión y verificación de las entregas formales subidas al
repositorio virtual.
• Asimismo, siempre se enviará correo en caso de observaciones encontradas.
• Todas las fechas de entrega serán respetadas tal y como están propuestas en el
cronograma.
ASEGURAMIENTO DE LA CALIDAD

Para poder asegurar que la calidad se está siguiendo de una manera clara se estará
contemplando las buenas prácticas de gestión de proyecto definidos en el PMBOK.
MEJORAMIENTO CONTINUO

244
Gracias a los indicadores de gestión se puede continuar con una mejora progresiva del
proyecto.

El organigrama de calidad del presente proyecto es el siguiente:

Figura 100
Organigrama de calidad del proyecto

A continuación, se detallan los roles mencionados en el organigrama anterior:

Tabla 102
Roles para la Gestión de la Calidad

ROLES PARA LA GESTIÓN DE LA CALIDAD

Objetivos del rol:


ROL Nro. 1
Gestionar funcionalmente la calidad
Product Owner
Funciones del rol:

245
Revisar entregables, aceptar entregables o disponer su reproceso,
coordinar con el Scrum Master
Niveles de autoridad:
Exigir cumplimiento de entregables verificados al Scrum Master
Reporta a: Interesados
Supervisa a: Scrum Master
Requisitos de conocimientos:
Funcionamiento del negocio
Requisitos de habilidades:
Liderazgo, Comunicación, Negociación, Motivación, y Solución de
Conflictos
Requisitos de experiencia:
Ocupar un cargo de alto nivel en la empresa objetivo
Objetivos del rol:
Asegurarse el cumplimiento de los entregables
Funciones del rol:
Revisar cada semana el cumplimiento de los entregables subidos al
repositorio.
Niveles de autoridad:
Rechazar entregables en caso de falla y solicitar inmediata solución
ROL Nro. 2
Reporta a: Product Owner
Scrum Master
Supervisa a: Team Scrum
Requisitos de conocimientos:
Gestión de Proyectos Agile
Requisitos de habilidades:
Solución, Entendimiento y Análisis
Requisitos de experiencia:
3 años de experiencia en el cargo
Objetivos del rol:
Desarrollar entregables según cronograma
ROL Nro. 3 Funciones del rol:
Team Scrum Desarrollo de entregables siguiendo las buenas prácticas de calidad
Niveles de autoridad:
Proponer cambios según reunión

246
Reporta a: Scrum Master
Requisitos de conocimientos:
Conocimiento en diseño, análisis y desarrollo de sistemas
Requisitos de habilidades:
Analítico, Observador, Conocimiento técnico y Solución de problemas
Requisitos de experiencia:
3 años de experiencia en el cargo

5.1.4.2 Objetivos de Calidad


Los objetivos de calidad del presente proyecto se contemplan en la línea base de
calidad y de detallan a continuación:

Tabla 103
Línea Base de Calidad del Proyectos

LÍNEA BASE DE CALIDAD DEL PROYECTO

FRECUENCIA
FACTOR DE FRECUENCIA Y
OBJETIVO DE MÉTRICA A Y
CALIDAD MOMENTO
CALIDAD UTILIZAR MOMENTO DE
RELEVANTE DE REPORTE
MEDICIÓN

Índice de coste Semanal Semanal


CPI >= 0.95
consumido. Todos los lunes Los lunes por la tarde
Rendimiento del
Índice de Quincenal
proyecto Quincenal
SPI >= 0.96 cronograma Todos los
Sábados por la tarde
consumido. sábados
Semanal Después de cada
Cumplimiento de 95% de Cumplimiento de
Todos los evaluación del
entregables cumplimiento entregables
domingos entregable
Nivel de Nivel de satisfacción Semanal
La satisfacción Después de cada
satisfacción de los interesados Todos los
de los interesados reunión
>=9 del 1 a 10 sábados

Nota. Adaptado de “Guía de los Fundamentos para la Dirección de Proyectos (Guía del
PMBOK®)” (6a ed.), por Project Management Institute [PMI], 2017,
(https://www.pmi.org/-/media/pmi/documents/public/pdf/pmbok-standards/pmbok-guide-
6th-errata.pdf?sc_lang_temp=es-ES).

247
Se debe tener en cuenta que el CPI y el SPI se calculan de la siguiente manera:

Tabla 104

Métricas CPI y SPI de PMBOK

FÓRMULA COMPONENTES INTERPRETACIÓN DE RESULTADOS


✓ CPI < 1, indica que el presupuesto
gastado es mayor al previsto
Índice de coste consumido Dónde:
✓ CPI = 1, indica que el presupuesto
(CPI) EV: Valor ganado
gastado es igual al previsto
EV / AC AC: Costo real
✓ CPI > 1, indica que el presupuesto
gastado es menor al previsto
✓ SPI < 1, indica que se está avanzando
a un ritmo peor al previsto
Índice de cronograma Dónde:
✓ SPI = 1, indica que se está avanzando
consumido (SPI) EV: Valor ganado
al ritmo previsto
EV / PV PV: Valor esperado
✓ SPI > 1, indica que se está avanzando
a un ritmo mejor al previsto

Nota. Adaptado de “Guía de los Fundamentos para la Dirección de Proyectos (Guía del
PMBOK®)” (6a ed.), por Project Management Institute [PMI], 2017,
(https://www.pmi.org/-/media/pmi/documents/public/pdf/pmbok-standards/pmbok-guide-
6th-errata.pdf?sc_lang_temp=es-ES).

5.1.4.3 Normatividad Aplicable


Como estándares o normas de calidad, para el presente proyecto estamos tomando como
base al PMBOK 6ta Ed. (Project Management Institute [PMI], 2017), tal como se muestra a
continuación:

Tabla 105

Normatividad aplicable para garantizar la calidad del proyecto

MATRIZ DE ACTIVIDADES DE CALIDAD

248
Paquete de Trabajo Estándar o norma Actividades de Actividades de Control
de calidad aplicable Prevención
Project Charter PMBOK Revisión de estándar Revisión y aprobación del
PO.

Documentos de PMBOK Revisión de estándar Revisión y aprobación del


factibilidad del proyecto PO.

Documentos de Gestión PMBOK Revisión de estándar Revisión y aprobación del


PO.
Artefactos Ágiles PMBOK Revisión de estándar Revisión y aprobación del
PO.

Arquitectura PMBOK Revisión de estándar Revisión y aprobación del


PO.

Desarrollo de Software PMBOK Revisión de estándar Revisión y aprobación del


PO.

Calidad de Software PMBOK Revisión de estándar Revisión y aprobación del


PO.

Entrega Final del PMBOK Revisión de estándar Revisión y aprobación del


proyecto PO.

5.1.4.4 Definición de Métricas de Calidad de Software


Para controlar la calidad del software a implementar se tendrán como base las métricas
establecidas en la ISO/IEC-25010 para la “Calidad del Producto Software”, para ello se
considerarán los siguientes criterios definidos por normativa según la International
Organization for Standardization [ISO] & International Electrotechnical Commission [IEC]
(2011):

• Adecuación Funcional
• Eficiencia de Desempeño
• Usabilidad

A continuación, se indica la métrica por cada uno de ellos:

249
Tabla 106

Métricas de calidad de Software ISO/IEC-25010

Características Descripción Métrica


• Acta de conformidad por parte
del usuario por incremento con
estado 1.
Dónde:
- 0: Desaprobado
- 1: Aprobado

• Cumplimiento total de los


criterios de aceptación por HU
(Ver ecuación 8)
Las funciones y
Adecuación propiedades satisfacen las
Ecuación 8
Funcional necesidades explícitas e
implícitas del usuario Cumplimiento de Criterios de
Aceptación por HU
𝐶𝑟𝑖𝑡𝐶𝑢𝑚𝑝𝑙𝑖𝑑𝑜𝑠
× 100% = 100%
𝑇𝑜𝑡𝐶𝑟𝑖𝑡𝑒𝑟𝑖𝑜𝑠

Donde:
- 𝐶𝑟𝑖𝑡𝐶𝑢𝑚𝑝𝑙𝑖𝑑𝑜𝑠: Cantidad de
criterios de aceptación
cumplidos por HU
- 𝑇𝑜𝑡𝐶𝑟𝑖𝑡𝑒𝑟𝑖𝑜𝑠 : Total de
criterios de aceptación por HU
• Índice de defectos nulo en
pruebas de concurrencia mayor
a 100 hilos de usuarios por
ejecución para la funcionalidad
con mayor valor para el
negocio por Sprint (Ver
ecuación 9)
El software no presenta
Eficiencia de Ecuación 9
problemas de rendimiento
Desempeño
pese a la concurrencia Concurrencia
𝐶𝑎𝑛𝑡𝐹𝑎𝑙𝑙𝑜𝑠
× 100% = 0%
𝑇𝑜𝑡𝑅𝑒𝑠𝑢𝑙𝑡

Donde:
- 𝐶𝑎𝑛𝑡𝐹𝑎𝑙𝑙𝑜𝑠: Cantidad de
fallos resultantes en la prueba
de concurrencia

250
- 𝑇𝑜𝑡𝑅𝑒𝑠𝑢𝑙𝑡: Cantidad total de
resultados de la prueba de
concurrencia
• Acta de conformidad con
respecto a la experiencia del
usuario por parte del usuario
por incremento con estado 1.
Dónde:
- 0: Desaprobado
- 1: Aprobado

• Índice nulo de errores de


usabilidad reportados por el
usuario al ejecutar los casos de
El software es fácil de usar prueba (Ver ecuación 10)
Usabilidad
y de aprender
Ecuación 10
Índice de errores UX
𝐶𝑎𝑛𝑡𝐸𝑟𝑟𝑜𝑟𝑒𝑠
× 100% = 0%
𝐶𝑎𝑛𝑡𝑃𝑟𝑢𝑒𝑏𝑎𝑠

Donde:
- 𝐶𝑎𝑛𝑡𝐸𝑟𝑟𝑜𝑟𝑒𝑠 : Cantidad de
errores de usabilidad
reportados
- 𝐶𝑎𝑛𝑡𝑃𝑟𝑢𝑒𝑏𝑎𝑠 : Cantidad de
pruebas realizadas

Nota. Adaptado de “Systems and software engineering: Systems and software Quality
Requirements and Evaluation (SQuaRE) - System and software quality models”, por
International Organization for Standardization [ISO] & International Electrotechnical
Commission [IEC], 2011, (https://www.iso.org/standard/35733.html).

251
5.1.5 Plan de Gestión del Riesgo
Los riesgos del presente proyecto son los siguientes:

Tabla 107
Riesgos del proyecto
Probabil. Responsable
Amenaza / Descripción Causa Entregables Tipo de Responsable Respuestas Fecha
Código Disparador x Impacto Estrategia de la Acción
oportunidad Riesgo Raíz afectados riesgo del riesgo planificadas planificada
total respuesta
-Recopilar la mayor cantidad
Aplicación no logra -Mirko Realizar nuevo -Mirko
Data de entrenamiento de Ejecución del de data para el entrenamiento
alcanzar el nivel de eficacia Bermudez entrenamiento a Evitar Bermudez Al final del
R001 Amenaza los algoritmos sea sistema en Entregable Final 0.7 Alto de los algoritmos
propuesto (95%) en sus -Diana los algoritmos -Diana proyecto
insuficiente producción -Hacer pruebas unitarias antes
resultados Hidalgo con data robusta Hidalgo
de lanzar el piloto
Solicitar
Modificación de los -Mirko -Mirko
Solicitud de ampliación de A mitad
No cumplir con el requerimientos por Entregable 1 Bermudez Bermudez Realizar reuniones constantes
R002 Amenaza cambios por 0.7 Alto tiempo y Mitigar del
tiempo establecido para parte del PO en la fase Entregable 2 -Diana -Diana con el PO
parte del PO presupuesto proyecto
el proyecto de Ejecución Hidalgo Hidalgo

Solicitar apoyo
Recopilar toda la información
Pérdida de contacto con Que el PO ya no labore PO no Grover de otro Grover A mitad
R003 Amenaza Entregable 2 0.7 Alto Evitar posible desde la fase de
el PO en la institución disponible Basas representante de Basas del
Iniciación del proyecto
la institución proyecto

Aplicación no logra -Recopilar la mayor cantidad


-Mirko Realizar nuevo
alcanzar el nivel de Data de entrenamiento Ejecución del -Mirko A mitad de data para el entrenamiento
Entregable Bermudez entrenamiento a
R004 Amenaza exactitud propuesto de los algoritmos sea sistema en 0.6 Alto Evitar Bermudez del de los algoritmos
Final -Diana los algoritmos
(>95%) en sus insuficiente producción Diana proyecto -Hacer pruebas unitarias antes
Hidalgo con data robusta
resultados Hidalgo de lanzar el piloto

Mirko Que el otro


-Comunicación contante entre
Integrante del equipo se Contagio de Bermudez integrante del A mitad
Integrante se ausente Entregable -Mirko miembros del equipo
R005 Amenaza inhabilite por temas de una 0.8 Alto equipo realice Evitar del
por temas de salud Final Bermudez -Tomar precauciones para
salud enfermedad Diana las labores del proyecto
evitar contagio
Hidalgo otro

252
Diana
Hidalgo

-Revisión contante de los


Detección de Modificar el
temas de tesis publicados en la
un proyecto Mirko presente
El proyecto puede Tema del proyecto de -Mirko BD de la institución
muy similar Bermudez proyecto para A mitad
catalogarse como investigación ya se Entregable Bermudez -Consultar frecuentemente a
R006 Amenaza al presente 0.8 Alto realizar alguna Evitar del
plagio al encontrarse encuentra registrado en Final los ADT sobre la existencia de
registrado en Diana diferenciación proyecto
registrado la BD de la institución Diana proyectos con temática similar
la BD de la Hidalgo con el ya
Hidalgo a la tratada en el presente
institución registrado
proyecto
Coordinar con
No se tiene
No se encuentra un el PO una
No se encuentra contacto
usuario externo al reunión con el -Comunicación constante con
usuario externo al directo con Mirko
proyecto para director u otro -Mirko el PO
proyecto para un usuario Bermudez
regularizar la Entregable docente de la Bermudez Al final del -Solicitar medios para poder
R007 Amenaza aprobación de externo al 0.8 Alto Evitar
aprobación de Final institución para proyecto comunicarse directamente con
entregables proyecto para Diana
entregables del presentarles el Diana el director u otros docentes de
la aprobación Hidalgo
proyecto proyecto y Hidalgo la institución
de
brinden su
entregables
aprobación

253
254
Para cada riesgo identificado se ha destinado una parte de las reservas de
contingencia (S/3,568.40) y gestión (S/3,218.20) indicadas en el punto 5.1.3, lo cual se
detalla a continuación:

R001 - Aplicación no logra alcanzar el nivel de eficacia propuesto:

Reserva de Contingencia: Se destina a cubrir los posibles costos adicionales


asociados con la realización de un nuevo entrenamiento de algoritmos y la recopilación de
datos robustos, asegurando que se pueda abordar la insuficiencia de datos de entrenamiento
sin afectar el presupuesto original. El monto asignado como contingencia para este riesgo es
S/629,80.

Reserva de Gestión: Se utiliza para mitigar cualquier impacto en el cronograma del


proyecto, permitiendo flexibilidad temporal para ajustes en el proceso de entrenamiento y
pruebas. El monto asignado como gestión para este riesgo es S/530.60.

R002 - No cumplir con el tiempo establecido para el proyecto:

Reserva de Contingencia: Se asigna para cubrir los costos adicionales relacionados


con la solicitud de ampliación de tiempo y presupuesto, garantizando que el proyecto pueda
adaptarse a modificaciones en los requerimientos sin afectar significativamente el
presupuesto inicial. El monto asignado como contingencia para este riesgo es S/526.70.

Reserva de Gestión: Contribuye a realizar reuniones constantes con el PO para


anticipar y abordar cambios en el cronograma, asegurando una gestión eficaz del tiempo. El
monto asignado como gestión para este riesgo es S/511.50.

R003 - Pérdida de contacto con el PO:

Reserva de Contingencia: Se utiliza para solicitar apoyo de otro representante de la


institución en caso de pérdida de contacto con el PO, garantizando recursos adicionales para
mantener la comunicación con stakeholders clave. El monto asignado como contingencia
para este riesgo es S/378,40.

Reserva de Gestión: Se destina a actividades preventivas como la recopilación


temprana de información desde la fase de Iniciación, mitigando el riesgo de pérdida de
contacto. El monto asignado como gestión para este riesgo es S/340.30.

R004 - Aplicación no logra alcanzar el nivel de exactitud propuesto:

255
Reserva de Contingencia: Cubre los costos adicionales de un nuevo entrenamiento
de algoritmos y la recopilación de datos robustos, garantizando que el proyecto pueda
adaptarse para cumplir con los estándares sin exceder el presupuesto original. El monto
asignado como contingencia para este riesgo es S/618.20.

Reserva de Gestión: Contribuye a ajustar el enfoque y las actividades de


entrenamiento, asegurando una gestión eficiente para alcanzar los objetivos. El monto
asignado como gestión para este riesgo es S/601.70.

R005 - Integrante del equipo se inhabilite por temas de salud:

Reserva de Contingencia: Se utiliza para cubrir los costos adicionales asociados con
la redistribución de tareas o medidas preventivas, asegurando que el proyecto pueda
adaptarse a cambios en la disponibilidad del equipo sin afectar el presupuesto original. El
monto asignado como contingencia para este riesgo es S/664.90.

Reserva de Gestión: Contribuye a implementar precauciones y mantener una


comunicación constante entre miembros del equipo, asegurando una gestión efectiva de
recursos humanos. El monto asignado como gestión para este riesgo es S/620.40.

R006 - El proyecto puede catalogarse como plagio:

Reserva de Contingencia: Se asigna para cubrir los costos de modificaciones y


diferenciación del proyecto en caso de detección de similitudes con otros proyectos,
garantizando que se puedan tomar medidas correctivas sin afectar el presupuesto inicial. El
monto asignado como contingencia para este riesgo es S/370.50.

Reserva de Gestión: Contribuye a implementar medidas preventivas, como la


revisión constante de temas de tesis, asegurando una gestión proactiva del riesgo de plagio.
El monto asignado como gestión para este riesgo es S/289.30.

R007 - No se encuentra usuario externo para aprobación de entregables:

Reserva de Contingencia: Se destina a cubrir los costos adicionales asociados con


la coordinación con el PO y la obtención de aprobaciones necesarias, asegurando que el
proyecto pueda adaptarse a cambios en la disponibilidad de usuarios externos sin exceder el
presupuesto original. El monto asignado como contingencia para este riesgo es S/379.90.

256
Reserva de Gestión: Contribuye a establecer comunicación constante con el PO y
asegurar los recursos necesarios para obtener aprobaciones, garantizando una gestión
efectiva de entregables. El monto asignado como gestión para este riesgo es S/324.40.

5.1.6 Plan de Gestión de Comunicaciones


El plan de comunicaciones del presente proyecto se define de la siguiente manera:

SECCIÓN 1: INFORMACIÓN GENERAL

Sistema web para predicción de riesgo académico en centros de estudio


Nombre del proyecto: de nivel secundario en Lima Metropolitana basado en algoritmos
bayesianos
Código de proyecto: MPDEAB
Integrantes: Mirko Michael Bermudez Ayvar Diana Sabrina Hidalgo Caycho
Preparado por: Mirko Michael Bermudez Ayvar
Fecha de creación: 27/08/2021
Versión: 1.0

SECCIÓN 2: COMUNICACIONES DEL PROYECTO

✓ Al inicio del Proyecto


✓ Modificación de documentos
✓ Cronograma
✓ Planteamiento del proyecto
✓ Análisis del negocio
✓ Diseño de la arquitectura
✓ Incidentes
✓ Cierre del proyecto
✓ Finalización del proyecto

SECCIÓN 3: GUÍAS PARA EVENTOS DE COMUNICACIÓN

✓ Las comunicaciones que tendremos serán reuniones por la plataforma Meet.


✓ Por cada reunión se generará un acta que será llenada por Diana Hidalgo.
✓ Nos comunicaremos también por correo en caso ocurran incidencias de último
momento.

257
SECCIÓN 4: GUÍAS PARA DOCUMENTACIÓN DEL PROYECTO

Guías para Codificación de Documentos


Los documentos para esta aplicación se codificarán utilizando una combinación de
letras mayúsculas y números arábigos, basándose en los tipos de fase y sus
denominaciones, de acuerdo con el esquema detallado a continuación:

El proceso de codificación empieza con las dos primeras letras de la descripción del
tipo de fase, seguidas por las dos primeras de la descripción del proceso. A
continuación, se incluyen las dos primeras letras que representan el tipo de
documento, finalizando con un número consecutivo de dos dígitos que identifica el
documento.

Ejemplo:
Tipo de fase: Iniciación
Nombre del proceso: Historias de usuario
Tipo de documento: Procedimiento
Consecutivo: 01
IN-HI-PR01
Guías para Almacenamiento de Documentos
- Los documentos se subirán al sharepoint del proyecto.

Guías para el Control de Versiones


- Para cada archivo actualizado se pondrá al término del título la letra “v” con
el número que corresponda como, por ejemplo: Plan de gestión de
comunicaciones v2.

SECCIÓN 5: SIGLARIO

− IN: Iniciación
− HI: Historia de Usuario
− PR: Procedimiento
− V: Versión

258
5.1.7 Plan de Gestión de Interesados
Los interesados identificados para el presente proyecto son los siguientes:

Tabla 108
Identificación de Interesados del proyecto

I. IDENTIFICACIÓN DE INTERESADOS

Nombre del Rol en el


Cód. Expectativas Poder Influencia Interés
Cargo Proyecto
Aumentar los ingresos
1 Director Sponsor y la calidad educativa Alto Alto Alto
de la institución
Obtener reportes de
alumnos en riesgo de
2 Subdirector Sponsor desaprobar para Alto Bajo Alto
plantear acciones
estratégicas
Conocer a los
Usuario estudiantes en riesgo
3 Docente (Tutor) Alto Alto Alto
(PO) en su curso para
brindar apoyo
Mayor apoyo a sus
Padres de hijos y estar
4 Beneficiario Bajo Bajo Alto
familia informado de las
notas

5 Estudiantes Beneficiario Mejorar sus notas Bajo Alto Alto

259
A continuación, se muestra la Matriz Poder vs Interés:

Tabla 109

Matriz Poder vs Interés


II.- MATRIZ DE PODER INTERÉS

260
Del cuadro anterior se puede inferir que esta técnica clasifica a los
Comentario:
interesados según su grado de autoridad, nivel de preocupación o
interés en los resultados del proyecto.

También se realizó la Matriz Poder vs Influencia, la cual se muestra a continuación:

Tabla 110
Matriz de Poder vs Influencia

III.- MATRIZ DE PODER INFLUENCIA

261
Del cuadro anterior se puede categorizar a los interesados en
Comentario:
función de su nivel de autoridad y su capacidad para influir en
los resultados del proyecto.

En base a dicha información, se ha podido determinar el nivel de involucramiento de


los interesados, lo cual se muestra a continuación:

Tabla 111

Nivel de Involucramiento de los Interesados


IV. NIVEL DE INVOLUCRAMIENTO

Interesado Desinformado Resistente Neutral Promotor Impulsor


(1) (2) (3) (4) (5)
Director A D
Subdirector A D
Docente (Tutor) A/D
Padres de familia A D
Estudiantes A D

A: Nivel Actual de compromiso; D: Nivel Deseado de compromiso

262
Con la información anterior se ha podido determinar el análisis de las brechas
existentes por cada interesado, el cual se muestra a continuación:

Tabla 112

Análisis de Brechas

ANÁLISIS DE BRECHAS

Interesado Brecha Acciones


(Actual – Deseado)
Director 3-4=-1 Envío de reporte de estado semanal del
proyecto.
Subdirector 4-5=-1 Envío de reporte de estado semanal del
proyecto.
Docente (Tutor) 5-5=0 Mantener el mismo nivel de compromiso

Padres de familia 1-3= -2 Mantener informados sobre el proyecto

Estudiantes 1-5=-4 Mantener informados sobre el proyecto y


solicitar su apoyo para la recolección de
datos mediante encuestas y formularios

5.2 Ejecución y Monitoreo por Sprint


En esta sección se presenta el monitoreo de la ejecución del proyecto por cada área de
conocimiento correspondiente a cada Sprint.

5.2.1 Sprint 1
A continuación, se presenta el monitoreo correspondiente a la ejecución del Sprint 1.

5.2.1.1 Alcance
Para poder monitorear el alcance obtenido para el Sprint 1 se han tomado como
referencia los hitos establecidos según cronograma. En base a ello se ha realizado un cuadro
de verificación para validar el cumplimiento de cada uno de ellos. Los resultados se muestran
a continuación:

263
Tabla 113
Cuadro de verificación de hitos para validar el cumplimiento del alcance del proyecto –
Sprint 1

Hitos Fecha Estado Evidencia

H5: Aprobación del Acta de Aprobación del


08/09/2022 ✓
Entregable 1 Entregable 1 (Anexo 7)

Adicionalmente, se validó el cumplimiento de los paquetes de trabajo establecidos en el Plan


de Gestión de Alcance del punto 5.1.1 en base a la EDT. Los resultados se muestran a
continuación:

Tabla 114
Cuadro de verificación de paquetes de trabajo para validar el cumplimiento del alcance
del proyecto – Sprint 1

Paquetes de Trabajo Fecha Estado

1.3.4.1.1 Sprint Planning 01/08/22 ✓

1.3.4.1.2 Construcción del Sprint


31/08/22 ✓

1.3.4.1.3 Ejecución de Pruebas 05/09/22 ✓

1.3.4.1.4 Implementación de
02/09/22 ✓
Servicios Azure

1.3.4.1.5 Sprint Review 05/09/22 ✓

264
1.3.4.1.6 Sprint Retrospective 06/09/22 ✓

1.3.4.1.7 Refinamiento del Product


07/09/22 ✓
Backlog

En base a dicha información, se puede deducir que se ha cumplido satisfactoriamente con


los entregables correspondientes al alcance del Sprint 1.

5.2.1.2 Cronograma
Para monitorear que se haya cumplido con el desarrollo de las tareas propuestas según
cronograma para el Sprint 1, se han tomado como referencia al avance real vs el avance
planificado del Sprint.

Se realizó la clasificación de los porcentajes de avances por semana, abarcando desde la


semana 0 hasta la semana 12, tal como se muestra a continuación:

Tabla 115
Avance planificado vs Avance real – Sprint 1
Avance planificado Avance real
Semana #Tareas #Tareas % Semana #Tareas #Tareas %
Establecidas Acumulado Acumulado Realizadas Acumulado Acumulado
Sem 0 0 0 0% Sem 0 0 0 0%
Sem 1 6 6 12% Sem 1 5 5 11%
Sem 2 8 14 26% Sem 2 7 12 22%
Sem 3 7 21 28% Sem 3 6 18 24%
Sem 4 6 27 32% Sem 4 12 30 33%
Sem 5 7 34 37% Sem 5 6 36 38%
Sem 6 9 43 45% Sem 6 9 45 49%
Sem 7 8 51 51% Sem 7 7 52 53%
Sem 8 10 61 54% Sem 8 9 61 57%
Sem 9 5 66 58% Sem 9 4 65 60%
Sem 10 8 74 61% Sem 10 11 76 63%
Sem 11 9 83 65% Sem 11 8 84 66%
Sem 12 7 90 67% Sem 12 6 90 68%
Total de 90 Total de 90
Tareas Tareas

En base a dicha información, se realizó el siguiente diagrama:

265
Figura 101

Rendimiento del Cronograma – Sprint 1

Rendimiento del Cronograma


70%

60%

50%

40%

30%

20%

10%

0%
Sem Sem Sem Sem Sem Sem Sem Sem Sem Sem Sem Sem Sem
0 1 2 3 4 5 6 7 8 9 10 11 12
Avance planificado 0% 12% 26% 28% 32% 37% 45% 51% 54% 58% 61% 65% 67%
Avance real 0% 11% 22% 24% 33% 38% 49% 53% 57% 60% 63% 66% 68%

Como se puede observar, hasta la semana 4 el avance real estaba por debajo del
planificado, lo cual se traduce como un retraso en las actividades, no obstante, desde la
semana 5 esta situación cambió, mostrando una ventaja por parte del avance real frente al
planificado y una reivindicación del equipo con respecto a la puntualidad en la realización
de sus actividades, lo que se traduce como un cumplimiento óptimo con respecto al
desarrollo de las actividades en el tiempo establecido en el cronograma para el Sprint 1.

Aplicando el SPI, en base a la información de la Tabla 116, tenemos como:

✓ EV = 68%
✓ PV = 67%

Por lo tanto:

EV / PV → 68% / 67% = 1,0149…

Lo que significa que el proyecto está avanzando a un ritmo mejor al previsto, según la
interpretación que se muestra en la Tabla 116.

266
Tabla 116

Métrica SPI del PMBOK Sprint 1

FÓRMULA COMPONENTES INTERPRETACIÓN DE RESULTADOS


✓ SPI < 1, indica que se está avanzando
a un ritmo peor al previsto
Índice de cronograma Dónde:
✓ SPI = 1, indica que se está avanzando
consumido (SPI) EV: Valor ganado
al ritmo previsto
EV / PV PV: Valor esperado
✓ SPI > 1, indica que se está avanzando
a un ritmo mejor al previsto

Nota. Adaptado de “Guía de los Fundamentos para la Dirección de Proyectos (Guía del
PMBOK®)” (6a ed.), por Project Management Institute [PMI], 2017,
(https://www.pmi.org/-/media/pmi/documents/public/pdf/pmbok-standards/pmbok-guide-
6th-errata.pdf?sc_lang_temp=es-ES).

5.2.1.3 Costo
Para monitorear que se esté cumpliendo con el presupuesto según la estimación de
coste realizada para el Sprint 1, se han utilizado como referencia al costo real vs el costo
planificado del proyecto.

Se realizó la clasificación de montos gastados por semana, abarcando desde la


semana 0 hasta la semana 12, tal como se muestra a continuación:

Tabla 117
Costo planificado vs Costo real – Sprint 1
Costo planificado Costo real
% %
Presupuesto Presupuesto Presupuesto Presupuesto
Semana Acumul Semana Acumul
Establecido Acumulado Gastado Acumulado
ado ado
Sem 0 S/ - S/ - 0% Sem 0 S/ - S/ - 0%
Sem 1 S/ 774.00 S/ 774.00 12% Sem 1 S/ 774.00 S/ 774.00 11%
Sem 2 S/ 774.00 S/ 1,548.00 26% Sem 2 S/ 659.90 S/ 1,433.90 22%
Sem 3 S/ 3,071.87 S/ 4,619.87 28% Sem 3 S/ 2,781.87 S/ 4,215.77 24%
Sem 4 S/ 3,071.87 S/ 7,691.75 32% Sem 4 S/ 3,571.87 S/ 7,787.65 33%
Sem 5 S/ 3,234.00 S/ 10,925.75 37% Sem 5 S/ 3,239.00 S/ 11,026.65 38%
Sem 6 S/ 3,234.00 S/ 14,159.75 45% Sem 6 S/ 3,617.500 S/ 14,644.15 49%
Sem 7 S/ 967.50 S/ 15,127.25 51% Sem 7 S/ 1,027.50 S/ 15,671.65 53%
Sem 8 S/ 2,512.65 S/ 17,639.90 54% Sem 8 S/ 2,600.65 S/ 18,272.30 57%

267
Sem 9 S/ 2,512.65 S/ 20,152.55 58% Sem 9 S/ 1,880.25 S/ 20,152.55 58%
Sem 10 S/ 2,512.65 S/ 22,665.20 61% Sem 10 S/ 1,212.65 S/ 21,365.20 59%
Sem 11 S/ 2,512.65 S/ 25,177.85 65% Sem 11 S/ 1,300.00 S/ 22,665.20 61%
Sem 12 S/ 2,512.65 S/ 27,690.51 67% Sem 12 S/ 1,289.00 S/ 23,954.20 63%
Costo Costo
S/ 27,690.51 S/ 23,954.21
Total Total

En base a dicha información, se realizó el siguiente diagrama:

Figura 102
Rendimiento del Costo - Sprint 1

Rendimiento del Costo


70%

60%

50%

40%

30%

20%

10%

0%
Se Se Se
Se Se Se Se Se Se Se Se Se Se
m m m
m0 m1 m2 m3 m4 m5 m6 m7 m8 m9
10 11 12
Costo planificado 0% 12% 26% 28% 32% 37% 45% 51% 54% 58% 61% 65% 67%
Costo real 0% 12% 22% 24% 33% 38% 49% 53% 57% 58% 59% 61% 63%

Como se puede observar, desde la semana 9 el presupuesto gastado para la


realización del proyecto fue menor a lo estimado manteniéndose así hasta la semana 12, lo
que indica que el rendimiento del coste para el Sprint 1 es óptimo.

Aplicando el CPI, en base a la información de la Tabla 118, tenemos como:

✓ EV = 67%
✓ AC = 63%

Por lo tanto:

EV / AC → 67% / 63% = 1,0634…

268
Lo que significa que el presupuesto gastado es menor al presupuestado
hasta la fecha, lo cual es óptimo según la interpretación que se muestra en la Tabla 118.

Tabla 118
Métrica CPI del PMBOK Sprint 1

FÓRMULA COMPONENTES INTERPRETACIÓN DE RESULTADOS


✓ CPI < 1, indica que el presupuesto
gastado es mayor al previsto
Índice de coste consumido Dónde:
✓ CPI = 1, indica que el presupuesto
(CPI) EV: Valor ganado
gastado es igual al previsto
EV / AC AC: Costo real
✓ CPI > 1, indica que el presupuesto
gastado es menor al previsto

Nota. Adaptado de “Guía de los Fundamentos para la Dirección de Proyectos (Guía del
PMBOK®)” (6a ed.), por Project Management Institute [PMI], 2017,
(https://www.pmi.org/-/media/pmi/documents/public/pdf/pmbok-standards/pmbok-guide-
6th-errata.pdf?sc_lang_temp=es-ES).

5.2.1.4 Calidad
Para poder monitorear la calidad del proyecto para el Sprint 1, se tomó en cuenta el
cumplimiento de las métricas establecidas en el Plan de Gestión de Calidad relacionados a
los criterios de aceptación de las HU del Sprint. Los resultados obtenidos se detallan en el
punto 4.3.

5.2.1.5 Riesgo
En el presente Sprint se llegó a reportar la posible materialización de uno de los
riesgos mapeados para el presente proyecto:

R006 - El proyecto puede catalogarse como plagio al encontrarse registrado

Esto debido a que, el asesor especializado alertó al equipo de la existencia de un


trabajo de investigación similar al presente, no obstante, al realizarse las verificaciones
correspondientes por los ADT se concluyó que no existe un proyecto con las mismas
características, por dicho motivo, el presente riesgo no afectó al desarrollo del proyecto.

269
5.2.1.6 Comunicaciones
Para monitorear la comunicación para la ejecución del proyecto se tiene en cuenta lo
detallado en el Plan de Gestión de Comunicaciones del punto 5.1.6.

Para validar que se esté cumpliendo efectivamente con la comunicación en el equipo hasta
el momento se ha realizado el siguiente cuadro de verificación:

Tabla 119
Cuadro de verificación para validar el cumplimiento efectivo de la comunicación dentro
del proyecto – Sprint 1

Responsable
Acción
Diana Hidalgo Mirko Bermudez
¿Comunicó al PO sobre el inicio del
✓ ✓
Proyecto?
¿Comunica cuando modifica
✓ ✓
documentos?
¿Comunicó al PO que se actualizó el
✓ ✓
cronograma de trabajo?

¿Comunicó al PO sobre el estado actual


✓ ✓
del proyecto?
¿Comunicó al PO sobre la
actualización de prototipos y ✓ ✓
arquitectura?
¿Comunica cuando agrega documentos
✓ ✓
al sharepoint?

En base a la Tabla 119, se puede deducir que se cumple efectivamente con una
comunicación óptima para la realización del proyecto.

5.2.1.7 Interesados
Para poder monitorear el nivel de satisfacción del Product Owner (Grover Basas), se
han llevado a cabo reuniones durante la construcción del Sprint 1. El usuario mostró estar
satisfecho al cumplir óptimamente con el alcance establecido y en consecuencia a ello brindó
su aprobación al incremento 1 por medio de un acta (Ver anexo 7).

Las actas de las reuniones realizadas con el PO se pueden observar en el Anexo 7.

270
5.2.2 Sprint 2
A continuación, se presenta el monitoreo correspondiente a la ejecución del Sprint 2.

5.2.2.1 Alcance
Para poder monitorear el alcance obtenido para el Sprint 2 se han tomado como
referencia los hitos establecidos según cronograma. En base a ello se ha realizado un cuadro
de verificación para validar el cumplimiento de cada uno de ellos. Los resultados se muestran
a continuación:

Tabla 120
Cuadro de verificación de hitos para validar el cumplimiento del alcance del proyecto –
Sprint 2
Hitos Fecha Estado Evidencia

H6: Aprobación del Acta de Aprobación del


18/10/2022 ✓
Entregable 2 Entregable 2 (Anexo 8)

Adicionalmente, se validó el cumplimiento de los paquetes de trabajo establecidos


en el Plan de Gestión de Alcance del punto 5.1.1 en base a la EDT. Los resultados se
muestran a continuación:

Tabla 121
Cuadro de verificación de paquetes de trabajo para validar el cumplimiento del alcance
del proyecto – Sprint 2
Paquetes de Trabajo Fecha Estado

1.3.4.8.1 Sprint Planning 08/09/22 ✓

1.3.4.8.2 Construcción del Sprint


10/10/22 ✓

1.3.4.8.3 Ejecución de Pruebas 12/10/22 ✓

271
1.3.4.8.4 Implementación de Servicios
12/10/22 ✓
Azure

1.3.4.8.5 Sprint Review 13/10/22 ✓

1.3.4.8.6 Sprint Retrospective 14/10/22 ✓

1.3.4.8.7 Refinamiento del Product


17/10/22 ✓
Backlog

En base a dicha información, se puede deducir que se ha cumplido satisfactoriamente


con los entregables correspondientes al alcance del Sprint 2.

5.2.2.2 Cronograma
Para monitorear que se haya cumplido con el desarrollo de las tareas propuestas
según cronograma para el Sprint 2, se han tomado como referencia al avance real vs el
avance planificado del Sprint.

Se realizó la clasificación de los porcentajes de avances por semana, abarcando desde


la semana 0 hasta la semana 16, tal como se muestra a continuación:

Tabla 122

Avance planificado vs Avance real – Sprint 2


Avance planificado Avance real
Semana #Tareas #Tareas % Semana #Tareas #Tareas %
Establecidas Acumulado Acumulado Realizadas Acumulado Acumulado
Sem 0 0 0 0% Sem 0 0 0 0%
Sem 1 6 6 12% Sem 1 5 5 11%
Sem 2 8 14 26% Sem 2 7 12 22%
Sem 3 7 21 28% Sem 3 6 18 24%
Sem 4 6 27 32% Sem 4 12 30 33%
Sem 5 7 34 37% Sem 5 6 36 38%
Sem 6 9 43 45% Sem 6 9 45 49%
Sem 7 8 51 51% Sem 7 7 52 53%
Sem 8 10 61 54% Sem 8 9 61 57%
Sem 9 5 66 58% Sem 9 4 65 60%
Sem 10 8 74 61% Sem 10 11 76 63%

272
Sem 11 9 83 65% Sem 11 8 84 66%
Sem 12 7 90 67% Sem 12 6 90 68%
Sem 13 5 95 72% Sem 13 4 94 71%
Sem 14 8 103 74% Sem 14 11 105 76%
Sem 15 9 112 78% Sem 15 8 113 80%
Sem 16 7 119 81% Sem 16 6 119 83%
Total de 119 Total de 119
Tareas Tareas

En base a dicha información, se realizó el siguiente diagrama:

Figura 103
Rendimiento del Cronograma – Sprint 2

Rendimiento del Cronograma


85%

75%

65%

55%

45%

35%

25%

15%

5%

-5%
Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se
m m m m m m m m m m m m m m m m m
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
Avance planificado 0% 12% 26% 28% 32% 37% 45% 51% 54% 58% 61% 65% 67% 72% 74% 78% 81%
Avance real 0% 11% 22% 24% 33% 38% 49% 53% 57% 60% 63% 66% 68% 71% 76% 80% 83%

Como se puede observar, en la semana 13, el avance real estaba por debajo del
planificado, lo cual se traduce como un retraso en las actividades, no obstante, desde la
semana 14 esta situación cambió, mostrando una pequeña ventaja por parte del avance real
frente al planificado, la cual se mantiene hasta la semana 16 y se traduce como un
cumplimiento óptimo con respecto al desarrollo de las actividades en el tiempo establecido
en el cronograma para el Sprint 2.

Aplicando el SPI, en base a la información de la Tabla 123, tenemos como:

✓ EV = 83%

273
✓ PV = 81%

Por lo tanto:

EV / PV → 83% / 81% = 1.0246…

Lo que significa que el proyecto está avanzando a un ritmo mejor al previsto, según la
interpretación que se muestra en la Tabla 123.

Tabla 123
Métrica SPI del PMBOK Sprint 2

FÓRMULA COMPONENTES INTERPRETACIÓN DE RESULTADOS


✓ SPI < 1, indica que se está avanzando
a un ritmo peor al previsto
Índice de cronograma Dónde:
✓ SPI = 1, indica que se está avanzando
consumido (SPI) EV: Valor ganado
al ritmo previsto
EV / PV PV: Valor esperado
✓ SPI > 1, indica que se está avanzando
a un ritmo mejor al previsto

Nota. Adaptado de “Guía de los Fundamentos para la Dirección de Proyectos (Guía del
PMBOK®)” (6a ed.), por Project Management Institute [PMI], 2017,
(https://www.pmi.org/-/media/pmi/documents/public/pdf/pmbok-standards/pmbok-guide-
6th-errata.pdf?sc_lang_temp=es-ES).

5.2.2.3 Costo
Para monitorear que se esté cumpliendo con el presupuesto según la estimación de
coste realizada para el Sprint 2, se han utilizado como referencia al costo real vs el costo
planificado del proyecto.

Se realizó la clasificación de montos gastados por semana, abarcando desde la


semana 0 hasta la semana 16, tal como se muestra a continuación:

Tabla 124

Costo planificado vs Costo real – Sprint 2


Costo planificado Costo real

274
% %
Presupuesto Presupuesto Presupuesto Presupuesto
Semana Acumul Semana Acum
Establecido Acumulado Gastado Acumulado
ado ulado
Sem 0 S/ - S/ - 0% Sem 0 S/ - S/ - 0%
Sem 1 S/ 774.00 S/ 774.00 12% Sem 1 S/ 774.00 S/ 774.00 12%
Sem 2 S/ 774.00 S/ 1,548.00 26% Sem 2 S/ 659.90 S/ 1,433.90 22%
Sem 3 S/ 3,071.87 S/ 4,619.87 28% Sem 3 S/ 2,781.87 S/ 4,215.77 24%
Sem 4 S/ 3,071.87 S/ 7,691.75 32% Sem 4 S/ 3,571.87 S/ 7,787.65 33%
Sem 5 S/ 3,234.00 S/ 10,925.75 37% Sem 5 S/ 3,239.00 S/ 11,026.65 38%
Sem 6 S/ 3,234.00 S/ 14,159.75 45% Sem 6 S/ 3,617.50 S/ 14,644.15 49%
Sem 7 S/ 967.500 S/ 15,127.25 51% Sem 7 S/ 1,027.50 S/ 15,671.65 53%
Sem 8 S/ 2,512.65 S/ 17,639.90 54% Sem 8 S/ 2,600.65 S/ 18,272.30 57%
Sem 9 S/ 2,512.65 S/ 20,152.55 58% Sem 9 S/ 1,880.25 S/ 20,152.55 58%
Sem 10 S/ 2,512.65 S/ 22,665.20 61% Sem 10 S/ 1,212.65 S/ 21,365.20 59%
Sem 11 S/ 2,512.65 S/ 25,177.85 65% Sem 11 S/ 1,300.00 S/ 22,665.20 61%
Sem 12 S/ 2,512.65 S/ 27,690.51 67% Sem 12 S/ 1,289.00 S/ 23,954.20 63%
Sem 13 S/ 2,512.65 S/ 30,203.16 72% Sem 13 S/ 4,212.65 S/ 28,166.85 69%
Sem 14 S/ 2,512.65 S/ 32,715.81 74% Sem 14 S/ 1,785.00 S/ 29,951.85 71%
Sem 15 S/ 2,512.65 S/ 35,228.46 78% Sem 15 S/ 2,763.95 S/ 32,715.81 74%
Sem 16 S/ 2,512.65 S/ 37,741.11 81% Sem 16 S/ 2,112.65 S/ 34,828.46 77%
Costo Costo
Total S/ 37,741.12 Total S/ 34,828.47

En base a dicha información, se realizó el siguiente diagrama:

275
Figura 104

Rendimiento del Costo – Sprint 2

Rendimiento del Costo

80%

70%

60%

50%

40%

30%

20%

10%

0%
Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se
m m m m m m m m m m m m m m m m m
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
Costo planificado 0% 12% 26% 28% 32% 37% 45% 51% 54% 58% 61% 65% 67% 72% 74% 78% 81%
Costo real 0% 12% 22% 24% 33% 38% 49% 53% 57% 58% 59% 61% 63% 69% 71% 74% 77%

Como se puede observar, desde la semana 9 el presupuesto gastado para la


realización del proyecto fue menor al estimado. Esto indica un buen rendimiento del costo
para el Sprint 2, ya que se puede observar que, en la semana 16, el coste real culmina con un
total de 4 puntos porcentuales por debajo del estimado.

Aplicando el CPI, en base a la información de la Tabla 125, tenemos como:

✓ EV = 81%
✓ AC = 77%

Por lo tanto:

EV / AC → 81% / 77% = 1,0519…

Lo que significa que el presupuesto gastado es menor al presupuestado hasta la fecha, lo cual
es óptimo según la interpretación que se muestra en la Tabla 125.

276
Tabla 125

Métrica CPI del PMBOK Sprint 2

FÓRMULA COMPONENTES INTERPRETACIÓN DE RESULTADOS


✓ CPI < 1, indica que el presupuesto
gastado es mayor al previsto
Índice de coste consumido Dónde:
✓ CPI = 1, indica que el presupuesto
(CPI) EV: Valor ganado
gastado es igual al previsto
EV / AC AC: Costo real
✓ CPI > 1, indica que el presupuesto
gastado es menor al previsto

Nota. Adaptado de “Guía de los Fundamentos para la Dirección de Proyectos (Guía del
PMBOK®)” (6a ed.), por Project Management Institute [PMI], 2017,
(https://www.pmi.org/-/media/pmi/documents/public/pdf/pmbok-standards/pmbok-guide-
6th-errata.pdf?sc_lang_temp=es-ES).

5.2.2.4 Calidad
Para poder monitorear la calidad del proyecto para el Sprint 2, se tomó en cuenta el
cumplimiento de las métricas establecidas en el Plan de Gestión de Calidad relacionados a
los criterios de aceptación de las HU del Sprint. Los resultados obtenidos se detallan en el
punto 4.3.

5.2.2.5 Riesgo
En el presente Sprint no se materializó ni generó un nuevo riesgo para el proyecto.

5.2.2.6 Comunicaciones
Para monitorear la comunicación para la ejecución del proyecto se tiene en cuenta lo
detallado en el Plan de Gestión de Comunicaciones del punto 5.1.6.

Para validar que se esté cumpliendo efectivamente con la comunicación en el equipo


hasta el momento se ha realizado el siguiente cuadro de verificación:

277
Tabla 126
Cuadro de verificación para validar el cumplimiento efectivo de la comunicación dentro
del proyecto – Sprint 2

Responsable
Acción
Diana Hidalgo Mirko Bermudez
¿Comunica cuando modifica
✓ ✓
documentos?
¿Comunicó al PO que se actualizó el
✓ ✓
cronograma de trabajo?

¿Comunicó al PO sobre el estado actual


✓ ✓
del proyecto?
¿Comunicó al PO sobre la
actualización de prototipos y ✓ ✓
arquitectura?
¿Comunica cuando agrega documentos
✓ ✓
al sharepoint?

En base a la Tabla 126, se puede deducir que se cumple efectivamente con una
comunicación óptima para la realización del proyecto.

5.2.2.7 Interesados
Para poder monitorear el nivel de satisfacción del Product Owner (Grover Basas), se
han llevado a cabo reuniones durante la construcción del Sprint 2. El usuario mostró estar
satisfecho al cumplir óptimamente con el alcance establecido y en consecuencia a ello brindó
su aprobación al entregable 2 por medio de un acta (Ver anexo 8).

Las actas de las reuniones realizadas con el PO se pueden observar en el Anexo 8.

5.2.3 Sprint 3
A continuación, se presenta el monitoreo correspondiente a la ejecución del Sprint 3.

5.2.3.1 Alcance
Para poder monitorear el alcance obtenido para el Sprint 3 se han tomado como
referencia los hitos establecidos según cronograma. En base a ello se ha realizado un cuadro
de verificación para validar el cumplimiento de cada uno de ellos. Los resultados se muestran
a continuación:

278
Tabla 127
Cuadro de verificación de hitos para validar el cumplimiento del alcance del proyecto –
Sprint 3

Hitos Fecha Estado Evidencia

H12: Aprobación del Acta de Aprobación del


28/11/2022 ✓
Entregable 3 Entregable 3 (Anexo 9)

Acta de Aprobación del


H13: Entrega Final del
15/12/2022 ✓ Entregable Final (Anexo
Proyecto
17)

Adicionalmente, se validó el cumplimiento de los paquetes de trabajo establecidos


en el Plan de Gestión de Alcance del punto 5.1.1 en base a la EDT. Los resultados se
muestran a continuación:

Tabla 128
Cuadro de verificación de paquetes de trabajo para validar el cumplimiento del alcance
del proyecto – Sprint 3

Paquetes de Trabajo Fecha Estado

1.3.4.13.1 Sprint Planning 18/10/22 ✓

1.3.4.13.2 Construcción del Sprint


17/11/22 ✓

1.3.4.13.3 Ejecución de Pruebas 21/11/22 ✓

1.3.4.13.4 Implementación de Servicios


22/11/22 ✓
Azure

279
1.3.4.13.5 Sprint Review 23/11/22 ✓

1.3.4.13.6 Sprint Retrospective 24/11/22 ✓

1.3.4.13.7 Refinamiento del Product


25/11/22 ✓
Backlog

En base a dicha información, se puede deducir que se ha cumplido satisfactoriamente


con los entregables correspondientes al alcance del Sprint 3, incluso algunas fechas
estimadas para el proyecto han sido optimizadas, como es el caso del H12 que ha pasado de
fecha de entrega 28/11/2022 a 01/11/2022.

5.2.3.2 Cronograma
Para monitorear que se haya cumplido con el desarrollo de las tareas propuestas
según cronograma para el Sprint 3, se han tomado como referencia al avance real vs el
avance planificado del Sprint.

Se realizó la clasificación de los porcentajes de avances por semana, abarcando desde


la semana 0 hasta la semana 20, tal como se muestra a continuación:

Tabla 129

Avance planificado vs Avance real – Sprint 3


Avance planificado Avance real
Semana #Tareas #Tareas % Semana #Tareas #Tareas %
Establecidas Acumulado Acumulado Realizadas Acumulado Acumulado
Sem 0 0 0 0% Sem 0 0 0 0%
Sem 1 6 6 12% Sem 1 5 5 11%
Sem 2 8 14 26% Sem 2 7 12 22%
Sem 3 7 21 28% Sem 3 6 18 24%
Sem 4 6 27 32% Sem 4 12 30 33%
Sem 5 7 34 37% Sem 5 6 36 38%
Sem 6 9 43 45% Sem 6 9 45 49%
Sem 7 8 51 51% Sem 7 7 52 53%
Sem 8 10 61 54% Sem 8 9 61 57%
Sem 9 5 66 58% Sem 9 4 65 60%
Sem 10 8 74 61% Sem 10 11 76 63%
Sem 11 9 83 65% Sem 11 8 84 66%
Sem 12 7 90 67% Sem 12 6 90 68%

280
Sem 13 5 95 72% Sem 13 4 94 71%
Sem 14 8 103 74% Sem 14 11 105 76%
Sem 15 9 112 78% Sem 15 8 113 80%
Sem 16 7 119 81% Sem 16 6 119 83%
Sem 17 5 124 84% Sem 17 4 123 84%
Sem 18 8 132 86% Sem 18 11 134 88%
Sem 19 9 141 89% Sem 19 8 142 91%
Sem 20 7 148 92% Sem 20 6 148 94%
Total de 148 Total de 148
Tareas Tareas

En base a dicha información, se realizó el siguiente diagrama:

Figura 105
Rendimiento del Cronograma – Sprint 3

Rendimiento del Cronograma


100%

90%

80%

70%

60%

50%

40%

30%

20%

10%

0%
Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se
m m m m m m m m m m m m m m m m m m m m m
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Avance planificado 0% 12 26 28 32 37 45 51 54 58 61 65 67 72 74 78 81 84 86 89 92
Avance real 0% 11 22 24 33 38 49 53 57 60 63 66 68 71 76 80 83 84 88 91 94

Como se puede observar, desde la semana 17, el avance real estuvo por encima del
planificado, lo cual indica que el equipo estuvo trabajando de manera óptima con respecto
al tiempo. Esta situación se mantuvo hasta la semana 20 lo que se traduce como un
cumplimiento óptimo con respecto al desarrollo de las actividades en el tiempo establecido
en el cronograma para el Sprint 3.

Aplicando el SPI, en base a la información de la Tabla 130, tenemos como:

281
✓ EV = 94%
✓ PV = 92%

Por lo tanto:

EV / PV → 94% / 92% = 1,0217…

Lo que significa que el proyecto va avanzando al ritmo previsto, según


la interpretación que se muestra en la Tabla 130.

Tabla 130

Métrica SPI del PMBOK Sprint 3

FÓRMULA COMPONENTES INTERPRETACIÓN DE RESULTADOS


✓ SPI < 1, indica que se está avanzando
a un ritmo peor al previsto
Índice de cronograma Dónde:
✓ SPI = 1, indica que se está avanzando
consumido (SPI) EV: Valor ganado
al ritmo previsto
EV / PV PV: Valor esperado
✓ SPI > 1, indica que se está avanzando
a un ritmo mejor al previsto

Nota. Adaptado de “Guía de los Fundamentos para la Dirección de Proyectos (Guía del
PMBOK®)” (6a ed.), por Project Management Institute [PMI], 2017,
(https://www.pmi.org/-/media/pmi/documents/public/pdf/pmbok-standards/pmbok-guide-
6th-errata.pdf?sc_lang_temp=es-ES).

5.2.3.3 Costo
Para monitorear que se esté cumpliendo con el presupuesto según la estimación de
coste realizada para el Sprint 3, se han utilizado como referencia al costo real vs el costo
planificado del proyecto.

Se realizó la clasificación de montos gastados por semana, abarcando desde la


semana 0 hasta la semana 20, tal como se muestra a continuación:

282
Tabla 131

Costo planificado vs Costo real – Sprint 3


Costo planificado Costo real
%
%
Presupuesto Presupuesto Presupuesto Presupuesto Acu
Semana Acum Semana
Establecido Acumulado Gastado Acumulado mul
ulado
ado
Sem 0 S/ - S/ - 0% Sem 0 S/ - S/ - 0%
Sem 1 S/ 774.00 S/ 774.00 12% Sem 1 S/ 774.00 S/ 774.00 12%
Sem 2 S/ 774.00 S/ 1,548.00 26% Sem 2 S/ 659.90 S/ 1,433.90 22%
Sem 3 S/ 3,071.87 S/ 4,619.87 28% Sem 3 S/ 2,781.87 S/ 4,215.77 24%
Sem 4 S/ 3,071.87 S/ 7,691.75 32% Sem 4 S/ 3,571.87 S/ 7,787.65 33%
Sem 5 S/ 3,234.00 S/ 10,925.75 37% Sem 5 S/ 3,239.00 S/ 11,026.65 38%
Sem 6 S/ 3,234.00 S/ 14,159.75 45% Sem 6 S/ 3,617.50 S/ 14,644.15 49%
Sem 7 S/ 967.500 S/ 15,127.25 51% Sem 7 S/ 1,027.50 S/ 15,671.65 53%
Sem 8 S/ 2,512.65 S/ 17,639.90 54% Sem 8 S/ 2,600.65 S/ 18,272.30 57%
Sem 9 S/ 2,512.65 S/ 20,152.55 58% Sem 9 S/ 1,880.25 S/ 20,152.55 58%
Sem 10 S/ 2,512.65 S/ 22,665.20 61% Sem 10 S/ 1,212.65 S/ 21,365.20 59%
Sem 11 S/ 2,512.65 S/ 25,177.85 65% Sem 11 S/ 1,300.00 S/ 22,665.20 61%
Sem 12 S/ 2,512.65 S/ 27,690.51 67% Sem 12 S/ 1,289.00 S/ 23,954.20 63%
Sem 13 S/ 2,512.65 S/ 30,203.16 72% Sem 13 S/ 4,212.65 S/ 28,166.85 69%
Sem 14 S/ 2,512.65 S/ 32,715.81 74% Sem 14 S/ 1,785.00 S/ 29,951.85 71%
Sem 15 S/ 2,512.65 S/ 35,228.46 78% Sem 15 S/ 2,763.95 S/ 32,715.81 74%
Sem 16 S/ 2,512.65 S/ 37,741.11 81% Sem 16 S/ 2,112.65 S/ 34,828.46 77%
Sem 17 S/ 2,512.65 S/ 40,253.77 84% Sem 17 S/ 1,919.65 S/ 36,748.11 79%
Sem 18 S/ 2,512.65 S/ 42,766.42 86% Sem 18 S/ 993.00 S/ 37,741.11 81%
Sem 19 S/ 2,512.65 S/ 45,279.07 89% Sem 19 S/ 2,512.65 S/ 40,253.77 84%
Sem 20 S/ 2,512.65 S/ 47,791.72 92% Sem 20 S/ 2,512.65 S/ 42,766.42 86%
Costo Costo
Total S/ 47,791.73 Total S/ 42,766.42

En base a dicha información, se realizó el siguiente diagrama:

283
Figura 106

Rendimiento del Costo – Sprint 3

Rendimiento del Costo


100%

90%

80%

70%

60%

50%

40%

30%

20%

10%

0%
Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se
m m m m m m m m m m m m m m m m m m m m m
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Costo planificado 0% 12 26 28 32 37 45 51 54 58 61 65 67 72 74 78 81 84 86 89 92
Costo real 0% 12 22 24 33 38 49 53 57 58 59 61 63 69 71 74 77 79 81 84 86

Como se puede observar, desde la semana 9 el presupuesto gastado para la


realización del proyecto fue menor al estimado. Esto indica un buen rendimiento del costo
para el Sprint 3, ya que se puede observar que, en la semana 20, el coste real culmina con un
total de 6 puntos porcentuales por debajo del estimado.

Aplicando el CPI, en base a la información de la Tabla 132, tenemos como:

✓ EV = 92%
✓ AC = 86%

Por lo tanto:

EV / AC → 92% / 86% = 1,0697…

Lo que significa que el presupuesto gastado es menor al presupuestado hasta la fecha, lo cual
es óptimo según la interpretación que se muestra en la Tabla 132.

284
Tabla 132

Métrica CPI del PMBOK Sprint 3

FÓRMULA COMPONENTES INTERPRETACIÓN DE RESULTADOS


✓ CPI < 1, indica que el presupuesto
gastado es mayor al previsto
Índice de coste consumido Dónde:
✓ CPI = 1, indica que el presupuesto
(CPI) EV: Valor ganado
gastado es igual al previsto
EV / AC AC: Costo real
✓ CPI > 1, indica que el presupuesto
gastado es menor al previsto

Nota. Adaptado de “Guía de los Fundamentos para la Dirección de Proyectos (Guía del
PMBOK®)” (6a ed.), por Project Management Institute [PMI], 2017,
(https://www.pmi.org/-/media/pmi/documents/public/pdf/pmbok-standards/pmbok-guide-
6th-errata.pdf?sc_lang_temp=es-ES).

5.2.3.4 Calidad
Para poder monitorear la calidad del proyecto para el Sprint 3, se tomó en cuenta el
cumplimiento de las métricas establecidas en el Plan de Gestión de Calidad relacionados a
los criterios de aceptación de las HU del Sprint. Los resultados obtenidos se detallan en el
punto 4.3.

5.2.3.5 Riesgo
En el presente Sprint se llegó a reportar la posibilidad de no encontrar un usuario
aprobador para poder regularizar la conformidad de los entregables del proyecto, lo cual se
traduce como un nuevo riesgo el cual es el siguiente:

R007 - No se encuentra usuario externo al proyecto para aprobación de entregables

Esto debido a que, el asesor especializado alertó al equipo de que la aprobación de


entregables no puede darse solo por el PO debido a que no es posible que tome papel de juez
y parte al estar incluido como miembro del equipo Scrum. El presente riesgo fue mitigado
con ayuda del PO quien nos facilitó el contacto del docente del curso de comunicaciones, el
cual a su vez es el director de bibliotecas de la institución. Su nombre es Christian Tarazona

285
Chávez y está de acuerdo con revisar y brindar las aprobaciones funcionales del sistema en
base a su experiencia.

5.2.3.6 Comunicaciones
Para monitorear la comunicación para la ejecución del proyecto se tiene en cuenta lo
detallado en el Plan de Gestión de Comunicaciones del punto 5.1.6.

Para validar que se esté cumpliendo efectivamente con la comunicación en el equipo


hasta el momento se ha realizado el siguiente cuadro de verificación:

Tabla 133
Cuadro de verificación para validar el cumplimiento efectivo de la comunicación dentro
del proyecto – Sprint 3

Responsable
Acción
Diana Hidalgo Mirko Bermudez
¿Comunica cuando modifica
✓ ✓
documentos?
¿Comunicó al PO que se actualizó el
✓ ✓
cronograma de trabajo?

¿Comunicó al PO sobre el estado actual


✓ ✓
del proyecto?
¿Comunicó al PO sobre la
actualización de prototipos y ✓ ✓
arquitectura?
¿Comunica cuando agrega documentos
✓ ✓
al sharepoint?

En base a la Tabla 133, se puede deducir que se cumple efectivamente con una
comunicación óptima para la realización del proyecto.

5.2.3.7 Interesados
Para poder monitorear el nivel de satisfacción del Product Owner (Grover Basas), se
han llevado a cabo reuniones durante la construcción del Sprint 3. El usuario mostró estar
satisfecho al cumplir óptimamente con el alcance establecido y en consecuencia a ello brindó
su aprobación al incremento 3 por medio de un acta (Ver anexo 9).

Las actas de las reuniones realizadas con el PO se pueden observar en el Anexo 9.

286
5.3 Ejecución y Monitoreo Final del Proyecto
A continuación, se presenta el monitoreo correspondiente a la ejecución general del
proyecto.

5.3.1 Alcance
Para poder monitorear el alcance obtenido al finalizar el presente proyecto se ha
tomado como referencia el total de hitos establecidos según cronograma. En base a ello se
ha realizado un cuadro de verificación para validar el cumplimiento de cada uno de ellos.
Los resultados se muestran a continuación:

Tabla 134
Cuadro de verificación de hitos para validar el cumplimiento final del alcance del
proyecto

Hitos Fecha Estado Evidencia


Acta de Aprobación de
H1: Aprobación de la
20/08/2021 ✓ la factibilidad del
factibilidad del Proyecto
proyecto (Anexo 11)

H2: Aprobación de la Acta de Aprobación de


planificación del 01/09/2021 ✓ la planificación del
proyecto proyecto (Anexo 12)

H3: Aprobación de la Acta de Aprobación de


arquitectura del 16/09/2021 ✓ la arquitectura del
proyecto proyecto (Anexo 13)

H4: Aprobación del Acta de Aprobación del


Plan de Gestión de 20/09/2021 ✓ Plan de Gestión de
Calidad del Proyecto Calidad (Anexo 14)

H5: Aprobación del Acta de Aprobación del


08/09/2022 ✓
Entregable 1 Entregable 1 (Anexo 7)

H9: Aprobación del Acta de Aprobación del


18/10/2022 ✓
Entregable 2 Entregable 2 (Anexo 8)

287
H12: Aprobación del Acta de Aprobación del
28/11/2022 ✓
Entregable 3 Entregable 3 (Anexo 9)

Acta de Aprobación del


H13: Entrega Final del
15/12/2022 ✓ Entregable Final del
Proyecto
Proyecto (Anexo 16)

Adicionalmente, se validó el cumplimiento de los paquetes de trabajo establecidos


en el Plan de Gestión de Alcance del punto 5.1.1 en base a la EDT. Los resultados se
muestran a continuación:

Tabla 135
Cuadro de verificación de paquetes de trabajo para validar el cumplimiento final del
alcance del proyecto
Paquetes de Trabajo Fecha Estado

1.1.1 Análisis de la organización 17/08/21 ✓

1.1.2 Desarrollo del plan del proyecto


18/08/21 ✓

1.1.3 Factibilidad del Proyecto 20/08/21 ✓

1.1.3.1 Factibilidad económica 19/08/21 ✓

1.1.3.2 Factibilidad técnica 20/08/21 ✓

1.2.1 Documentos de Gestión 31/08/21 ✓

288
1.2.1.1 Plan de Gestión del Alcance 23/08/21 ✓

1.2.1.2 Plan de Gestión del Cronograma o


24/08/21 ✓
Tiempo

1.2.1.3 Plan de Gestión del Costo 25/08/21 ✓

1.2.1.4 Plan de Gestión de Calidad 26/08/21 ✓

1.2.1.5 Plan de Gestión del Riesgo 27/08/21 ✓

1.2.1.6 Plan de Gestión de


30/08/21 ✓
Comunicaciones

1.2.1.7 Plan de Gestión de Interesados 31/08/21 ✓

1.3.1 Artefactos ágiles 08/09/21 ✓

1.3.1.1 Product Vision Board 08/09/21 ✓

1.3.1.2 Product Canvas 09/09/21 ✓

289
1.3.1.3 Diagrama Persona del Stakeholder 09/09/21 ✓

1.3.1.4 Product Backlog Base 13/09/21 ✓

1.3.1.5 Roadmap del Producto 13/09/21 ✓

1.3.1.6 Tablero Scrum Base 14/09/21 ✓

1.3.2 Arquitectura 16/09/21 ✓

1.3.2.1 Prototipos alto nivel 15/09/21 ✓

1.3.2.2 Arquitectura técnica base 15/09/21 ✓

1.3.2.3 Arquitectura de Software 15/09/21 ✓

1.3.3 Calidad de Software 20/09/21 ✓

1.3.3.1 Elaboración del Plan de Gestión de


20/09/21 ✓
Calidad

290
1.3.4.1.1 Sprint Planning (Sprint 1) 01/08/22 ✓

1.3.4.1.2 Construcción del Sprint (Sprint


1) 31/08/22 ✓

1.3.4.1.3 Ejecución de Pruebas (Sprint 1) 05/09/22 ✓

1.3.4.1.4 Implementación de Servicios


05/09/22 ✓
Azure (Sprint 1)

1.3.4.1.5 Sprint Review (Sprint 1) 05/09/22 ✓

1.3.4.1.6 Sprint Retrospective (Sprint 1) 06/09/22 ✓

1.3.4.1.7 Refinamiento del Product


07/09/22 ✓
Backlog (Sprint 1)

1.3.4.8.1 Sprint Planning (Sprint 2) 08/09/22 ✓

1.3.4.8.2 Construcción del Sprint (Sprint


2) 10/10/22 ✓

1.3.4.8.3 Ejecución de Pruebas (Sprint 2) 12/10/22 ✓

291
1.3.4.8.4 Implementación de Servicios
12/10/22 ✓
Azure (Sprint 2)

1.3.4.8.5 Sprint Review (Sprint 2) 13/10/22 ✓

1.3.4.8.6 Sprint Retrospective (Sprint 2) 14/10/22 ✓

1.3.4.8.7 Refinamiento del Product


17/10/22 ✓
Backlog (Sprint 2)

1.3.4.13.1 Sprint Planning (Sprint 3) 18/10/22 ✓

1.3.4.13.2 Construcción del Sprint (Sprint


3) 17/11/22 ✓

1.3.4.13.3 Ejecución de Pruebas (Sprint 3) 21/11/22 ✓

1.3.4.13.4 Implementación de Servicios


22/10/22 ✓
Azure (Sprint 3)

1.3.4.13.5 Sprint Review (Sprint 3) 23/11/22 ✓

1.3.4.13.6 Sprint Retrospective (Sprint 3) 24/11/22 ✓

292
1.3.4.13.7 Refinamiento del Product
25/11/22 ✓
Backlog (Sprint 3)

En base a dicha información, se puede deducir que se ha cumplido satisfactoriamente con


todos los entregables pactados para el presente proyecto

5.3.2 Cronograma
Para monitorear que se haya cumplido con el desarrollo de las tareas propuestas
según cronograma para el presente proyecto, se han tomado como referencia al avance real
vs el avance planificado para todo el proyecto.

Se realizó la clasificación de los porcentajes de avances por semana, abarcando desde la


semana 0 hasta la semana 24, tal como se muestra a continuación:

Tabla 136
Avance planificado vs Avance real del proyecto
Avance planificado Avance real
Semana #Tareas #Tareas % Semana #Tareas #Tareas %
Establecidas Acumulado Acumulado Realizadas Acumulado Acumulado
Sem 0 0 0 0% Sem 0 0 0 0%
Sem 1 6 6 12% Sem 1 5 5 11%
Sem 2 8 14 26% Sem 2 7 12 22%
Sem 3 7 21 28% Sem 3 6 18 24%
Sem 4 6 27 32% Sem 4 12 30 33%
Sem 5 7 34 37% Sem 5 6 36 38%
Sem 6 9 43 45% Sem 6 9 45 49%
Sem 7 8 51 51% Sem 7 7 52 53%
Sem 8 10 61 54% Sem 8 9 61 57%
Sem 9 5 66 58% Sem 9 4 65 60%
Sem 10 8 74 61% Sem 10 11 76 63%
Sem 11 9 83 65% Sem 11 8 84 66%
Sem 12 7 90 67% Sem 12 6 90 68%
Sem 13 5 95 72% Sem 13 4 94 71%
Sem 14 8 103 74% Sem 14 11 105 76%
Sem 15 9 112 78% Sem 15 8 113 80%
Sem 16 7 119 81% Sem 16 6 119 83%
Sem 17 5 124 84% Sem 17 4 123 84%
Sem 18 8 132 86% Sem 18 11 134 88%
Sem 19 9 141 89% Sem 19 8 142 91%
Sem 20 7 148 92% Sem 20 6 148 94%
Sem 21 4 152 95% Sem 21 5 153 97%
Sem 22 6 158 96% Sem 22 8 161 98%
Sem 23 4 162 98% Sem 23 4 165 100%
Sem 24 3 165 100% Sem 24 0 165 100%
Total de 165 Total de 165
Tareas Tareas

293
En base a dicha información, se realizó el siguiente diagrama:

Figura 107

Rendimiento del Cronograma del proyecto

Rendimiento del Cronograma


100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se
m m m m m m m m m m m m m m m m m m m m m m m m m
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Avance planificado 0% 12 26 28 32 37 45 51 54 58 61 65 67 72 74 78 81 84 86 89 92 95 96 98 10
Avance real 0% 11 22 24 33 38 49 53 57 60 63 66 68 71 76 80 83 84 88 91 94 97 98 10 10

Como se puede observar, el cumplimiento del proyecto con respecto al tiempo ha sido
óptimo. Aplicando el SPI, en base a la información de la Tabla 137, tenemos como:

✓ EV = 100%
✓ PV = 98%

Por lo tanto:

EV / PV → 100% / 98% = 1,0204…

Lo que significa que el proyecto avanzó mejor al ritmo previsto, según la interpretación que
se muestra en la Tabla 137.

294
Tabla 137

Métrica SPI del PMBOK al finalizar el proyecto

FÓRMULA COMPONENTES INTERPRETACIÓN DE RESULTADOS


✓ SPI < 1, indica que se está avanzando
a un ritmo peor al previsto
Índice de cronograma Dónde:
✓ SPI = 1, indica que se está avanzando
consumido (SPI) EV: Valor ganado
al ritmo previsto
EV / PV PV: Valor esperado
✓ SPI > 1, indica que se está avanzando
a un ritmo mejor al previsto

Nota. Adaptado de “Guía de los Fundamentos para la Dirección de Proyectos (Guía del
PMBOK®)” (6a ed.), por Project Management Institute [PMI], 2017,
(https://www.pmi.org/-/media/pmi/documents/public/pdf/pmbok-standards/pmbok-guide-
6th-errata.pdf?sc_lang_temp=es-ES).

5.3.3 Costo
Para monitorear que se esté cumpliendo con el presupuesto según la estimación de
coste realizada para el presente proyecto, se han utilizado como referencia al costo real vs el
costo planificado del proyecto.

Se realizó la clasificación de montos gastados por semana, abarcando desde la


semana 0 hasta la semana 24, tal como se muestra a continuación:

Tabla 138
Costo planificado vs Costo real del proyecto
Costo planificado Costo real
% %
Sema Presupuesto Presupuesto Presupuesto Presupuesto
Acumul Semana Acumul
na Establecido Acumulado Gastado Acumulado
ado ado
Sem 0 S/ - S/ - 0% Sem 0 S/ - S/ - 0%
Sem 1 S/ 774.00 S/ 774.00 12% Sem 1 S/ 774.00 S/ 774.00 12%
Sem 2 S/ 774.00 S/ 1,548.00 26% Sem 2 S/ 659.90 S/ 1,433.90 22%
Sem 3 S/ 3,071.87 S/ 4,619.87 28% Sem 3 S/ 2,781.87 S/ 4,215.77 24%
Sem 4 S/ 3,071.87 S/ 7,691.75 32% Sem 4 S/ 3,571.87 S/ 7,787.65 33%
Sem 5 S/ 3,234.00 S/ 10,925.75 37% Sem 5 S/ 3,239.00 S/ 11,026.65 38%
Sem 6 S/ 3,234.00 S/ 14,159.75 45% Sem 6 S/ 3,617.50 S/ 14,644.15 49%
Sem 7 S/ 967.50 S/ 15,127.25 51% Sem 7 S/ 1,027.50 S/ 15,671.65 53%
Sem 8 S/ 2,512.65 S/ 17,639.90 54% Sem 8 S/ 2,600.65 S/ 18,272.30 57%

295
Sem 9 S/ 2,512.65 S/ 20,152.55 58% Sem 9 S/ 1,880.25 S/ 20,152.55 58%
Sem
10 S/ 2,512.65 S/ 22,665.20 61% Sem 10 S/ 1,212.65 S/ 21,365.20 59%
Sem
11 S/ 2,512.65 S/ 25,177.85 65% Sem 11 S/ 1,300.00 S/ 22,665.20 61%
Sem
12 S/ 2,512.65 S/ 27,690.51 67% Sem 12 S/ 1,289.00 S/ 23,954.20 63%
Sem
13 S/ 2,512.65 S/ 30,203.16 72% Sem 13 S/ 4,212.65 S/ 28,166.85 69%
Sem
14 S/ 2,512.65 S/ 32,715.81 74% Sem 14 S/ 1,785.00 S/ 29,951.85 71%
Sem
15 S/ 2,512.65 S/ 35,228.46 78% Sem 15 S/ 2,763.95 S/ 32,715.81 74%
Sem
16 S/ 2,512.65 S/ 37,741.11 81% Sem 16 S/ 2,112.65 S/ 34,828.46 77%
Sem
17 S/ 2,512.65 S/ 40,253.77 84% Sem 17 S/ 1,919.65 S/ 36,748.11 79%
Sem
18 S/ 2,512.65 S/ 42,766.42 86% Sem 18 S/ 993.00 S/ 37,741.11 81%
Sem
19 S/ 2,512.65 S/ 45,279.07 89% Sem 19 S/ 2,512.65 S/ 40,253.77 84%
Sem
20 S/ 2,512.65 S/ 47,791.72 92% Sem 20 S/ 2,512.65 S/ 42,766.42 86%
Sem
21 S/ 2,512.65 S/ 50,304.37 95% Sem 21 S/ 990.65 S/ 43,757.07 87%
Sem
22 S/ 2,512.65 S/ 52,817.03 96% Sem 22 S/ 1,522.00 S/ 45,279.07 89%
Sem
23 S/ 774.00 S/ 53,591.03 98% Sem 23 S/ 753.80 S/ 46,032.87 91%
Sem
24 S/ 774.00 S/ 54,365.03 100% Sem 24 S/ 774.00 S/ 46,806.87 91%
Costo Costo
Total S/ 54,365.03 Total S/ 46,806.87

En base a dicha información, se realizó el siguiente diagrama:

296
Figura 108

Rendimiento del Costo del proyecto

Rendimiento del Costo


100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se Se
m m m m m m m m m m m m m m m m m m m m m m m m m
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Costo planificado 0% 12 26 28 32 37 45 51 54 58 61 65 67 72 74 78 81 84 86 89 92 95 96 98 10
Costo real 0% 12 22 24 33 38 49 53 57 58 59 61 63 69 71 74 77 79 81 84 86 87 89 91 91

Como se puede observar, el cumplimiento del proyecto con respecto a los costes ha
sido óptimo. Aplicando el CPI, en base a la información de la Tabla 139, tenemos como:

✓ EV = 100%
✓ AC = 91%

Por lo tanto:

EV / AC → 100% / 91% = 1,0989…

Lo que significa que el presupuesto gastado fue menor al presupuestado, lo cual es óptimo
según la interpretación que se muestra en la Tabla 139.

Tabla 139

Métrica CPI del PMBOK al finalizar el proyecto

FÓRMULA COMPONENTES INTERPRETACIÓN DE RESULTADOS


Índice de coste consumido Dónde:
✓ CPI < 1, indica que el presupuesto
(CPI) EV: Valor ganado
gastado es mayor al previsto
EV / AC AC: Costo real

297
✓ CPI = 1, indica que el presupuesto
gastado es igual al previsto
✓ CPI > 1, indica que el presupuesto
gastado es menor al previsto

5.3.4 Calidad
Para poder monitorear la calidad del proyecto se tomó en cuenta el cumplimiento de
las métricas establecidas en el Plan de Gestión de Calidad relacionados a los criterios de
aceptación de las HU del Sprint. Los resultados obtenidos se detallan en el capítulo IV.

5.3.5 Riesgo
En el presente proyecto se llegaron a materializar 2 riesgos de la bitácora los cuales son:

• R006 - El proyecto puede catalogarse como plagio al encontrarse registrado


Esto debido a que, el asesor especializado alertó al equipo de la existencia de un
trabajo de investigación similar al presente, no obstante, al realizarse las
verificaciones correspondientes por los ADT se concluyó que no existe un proyecto
con las mismas características, por dicho motivo, el presente riesgo no afectó al
desarrollo del proyecto.
• R007 - No se encuentra usuario externo al proyecto para aprobación de
entregables
Esto debido a que, el asesor especializado alertó al equipo de que la aprobación de
entregables no puede darse solo por el PO debido a que no es posible que tome papel
de juez y parte al estar incluido como miembro del equipo Scrum. El presente riesgo
fue mitigado con ayuda del PO quien nos facilitó el contacto del docente del curso
de comunicaciones, el cual a su vez es el director de bibliotecas de la institución. Su
nombre es Christian Tarazona Chávez y está de acuerdo con revisar y brindar las
aprobaciones funcionales del sistema en base a su experiencia.

5.3.6 Comunicaciones
Para monitorear la comunicación para la ejecución total del proyecto se tiene en
cuenta lo detallado en el Plan de Gestión de Comunicaciones del punto 5.1.6.

Para validar que se haya cumplido satisfactoriamente con la comunicación en el


equipo se ha realizado el siguiente cuadro de verificación:

298
Tabla 140
Cuadro de verificación para validar el cumplimiento efectivo de la comunicación dentro
del proyecto

Responsable
Acción
Diana Hidalgo Mirko Bermudez
¿Comunica cuando modifica
✓ ✓
documentos?
¿Comunicó al PO que se actualizó el
✓ ✓
cronograma de trabajo?

¿Comunicó al PO sobre el estado actual


✓ ✓
del proyecto?
¿Comunicó al PO sobre la
actualización de prototipos y ✓ ✓
arquitectura?
¿Comunica cuando agrega documentos
✓ ✓
al sharepoint?

En base a la Tabla 140, se puede deducir que se ha cumplido óptimamente con los
lineamientos de comunicación para la realización del presente proyecto.

5.3.7 Interesados
Para poder monitorear el nivel de satisfacción del Product Owner (Grover Basas), se han
llevado a cabo reuniones a lo largo del desarrollo del presente proyecto. El usuario mostró
estar satisfecho al cumplir óptimamente con el alcance establecido y en consecuencia a ello
brindó su aprobación a la entrega final del proyecto por medio de un acta (Ver anexo 16).

5.4 Conclusiones
- Con respecto al Sprint 1, se puede concluir que se ha cumplido de manera óptima
con los entregables establecidos respetando la planificación del proyecto. En este
Sprint se materializó el riesgo R006 el cual fue mitigado de manera satisfactoria.
- Con respecto al Sprint 2, se puede concluir que se ha cumplido satisfactoriamente
con los entregables establecidos optimizando en tiempo y esfuerzo la planificación
del proyecto. No se materializaron riesgos ni se generaron nuevos.

299
- Con respecto al Sprint 3, se puede concluir que se ha cumplido satisfactoriamente
con los entregables establecidos optimizando en tiempo y esfuerzo la planificación
del proyecto. En este Sprint se añadió un nuevo riesgo a la bitácora el cual fue
registrado con código R007 y fue mitigado de manera satisfactoria.

CAPÍTULO VI – CUMPLIMIENTO DE STUDENTS OUTCOMES


En el presente capítulo se detallan los Student Outcomes con su respectivo
cumplimiento dentro de la implementación del presente proyecto.

6.1 Student Outcome I


Definición:

“La capacidad de identificar, formular y resolver problemas complejos de ingeniería


aplicando los principios de ingeniería, ciencia y matemática” (Universidad Peruana de
Ciencias Aplicadas [UPC], 2022, párr. 1).

Cumplimiento:

Para el desarrollo del presente proyecto se realizó un análisis profundo de la situación


actual de la I.E.P Santiago Antúnez de Mayolo identificando la problemática del negocio la
cual es el aumento del 24,5% del índice de reprobaciones estudiantiles a nivel institucional
en los últimos años, proponiendo una solución innovadora basada en un modelo predictivo
de algoritmos bayesianos los cuales son un tipo de algoritmos clasificadores que están
basados en el teorema de bayes y las probabilidades. Previo a la implementación del
proyecto, se realizó una evaluación técnica y económica de la propuesta con la finalidad de
ver cuán factible es llevar a cabo el proyecto. Para prevenir el impacto de los impedimentos
durante la ejecución del proyecto se realizó una planificación que contempla lo siguiente:
Plan de Gestión del Alcance, Plan de Gestión del Cronograma, Plan de Gestión del Costo,
Plan de Gestión de Calidad, Plan de Gestión del Riesgo, Plan de Gestión de Comunicaciones
y Plan de Gestión de Interesados. Adicionalmente, se optó trabajar por un marco de
desarrollo ágil, contemplando 3 Sprints para hacer efectivas la comunicación y la mejora
continua del proyecto.

6.2 Student Outcome II


Definición:

300
“La capacidad de aplicar el diseño de ingeniería para producir soluciones que
satisfagan necesidades específicas con consideración de salud pública, seguridad y bienestar,
así como factores globales, culturales, sociales, ambientales y económicos” (UPC, 2022,
párr. 2).

Cumplimiento:

Para el diseño de la propuesta se hizo uso del modelo 4C para establecer la


conceptualización de la arquitectura, la cual consta de 4 diagramas: Diagrama de contexto,
diagrama de contenedores, diagrama de componentes y diagrama de código, adicionalmente,
se realizó la especificación técnica de la misma añadiendo la arquitectura a nivel de capas y
la arquitectura lógica del sistema. La presente propuesta contribuye con el bienestar
socioeconómico de la institución objetivo al permitir la toma de decisiones oportunas frente
a los posibles casos de reprobación y poder ayudar al estudiante a superar con éxito todas
sus dificultades, lo cual contribuirá con la satisfacción del alumnado de la institución y el
aumento de la calidad educativa, esto a su vez contribuirá con la retención de matrículas de
estudiantes, ya que al identificar tempranamente las dificultades académicas y proporcionar
las intervenciones necesarias, se mejora el rendimiento general de los estudiantes, lo que
contribuye a la reducción de las tasas de deserción escolar, lo que aumenta las probabilidades
de que los estudiantes se matriculen el siguiente año lectivo en la institución.

6.3 Student Outcome III


Definición:

“La capacidad de comunicarse efectivamente con un rango variado de audiencias”


(UPC, 2022, párr. 3).

Cumplimiento:

Para llevar a cabo el presente proyecto se optó por un marco de desarrollo ágil, el
cual tiene como punto clave a la comunicación, debido a que, para el desarrollo de cada uno
de los 3 Sprints, fue necesario comunicarse efectivamente con profesionales de diversas
especialidades, entre los cuales se encuentran el PO, otros docentes de la institución y el
especialista TI. La comunicación se realizó de manera audiovisual, a través de reuniones
mediante la plataforma Google Meets, y de manera textual, mediante actas, para llevar a
cabo el levantamiento de requerimientos, adquisición de información de la institución
objetivo, presentación de entregables y se obtuvo la aprobación de los documentos realizados

301
en las 4 fases del proyecto: Iniciación, Planificación, Ejecución y Cierre. Adicionalmente,
fue necesario que dichos especialistas estuviesen presentes en las ceremonias Scrum
realizadas por cada Sprint, las cuales son: Sprint Planning, Sprint Review, Sprint
Retrospective y Refinamiento. El consolidado de todas las comunicaciones efectuadas a lo
largo de la implementación del proyecto se pueden ubicar en las diferentes secciones
incluidas en los anexos del documento.

6.4 Student Outcome IV


Definición:

“La capacidad de reconocer responsabilidades éticas y profesionales en situaciones


de ingeniería y hacer juicios informados, que deben considerar el impacto de las soluciones
de ingeniería en contextos globales, económicos, ambientales y sociales” (UPC, 2022, párr.
4).

Cumplimiento:

La propuesta de solución planteada en el proyecto ayudará a la I.E.P Santiago


Antúnez de Mayolo a proyectar una visión empática frente a su alumnado, ya que pese a
incurrir en gastos para su implementación, opta por llevarlo a cabo, demostrando así su
compromiso con el apoyo a los estudiantes para que superen sus obstáculos y culminen
satisfactoriamente sus cursos. Esta iniciativa también está alineada con sus objetivos
estratégicos, reforzando su dedicación a la mejora educativa y al bienestar estudiantil. El
impacto de la propuesta en el contexto económico se detalla en la factibilidad económica del
proyecto. Adicionalmente, para llevar a cabo el presente proyecto se realizó un análisis
exhaustivo de la literatura sistemática, tomando como referencia estudios anteriores
realizados por autores de diversas geografías, citando respectivamente los aportes tomados
de otros estudios y respetando sus derechos de autoría, lo cual se evidencia en el estado del
arte del proyecto y el marco teórico del capítulo II.

El presente proyecto está regido al código de ética de la investigación científica


brindado por la UPC el cual contempla lo siguiente:

Dignidad de la persona: Se garantiza el respeto hacia la dignidad y la libertad de


todas las personas involucradas en la investigación, ya sean sujetos de estudio o
colaboradores en el proceso de investigación.

302
Bien común: Se fomenta el bien común en cada grupo, núcleo, línea y centro de
investigación, buscando beneficiar a la comunidad en general.

Solidaridad: Se fortalece el compromiso ético de la cooperación mediante la virtud


de la solidaridad entre los miembros del equipo. Esto implica actuar de manera conjunta y
brindarse apoyo mutuo para alcanzar un objetivo común.

Justicia: Se reconoce y valora la contribución de cada participante en el proyecto,


reflejándose adecuadamente en los resultados científicos.

Responsabilidad: Todos los involucrados en el proyecto asumen la responsabilidad


de mantener la integridad científica y ética en la investigación y en la publicación de los
resultados obtenidos.

Honestidad: Los investigadores actúan con coherencia, rechazando y denunciando


cualquier acto contrario a la veracidad y autenticidad inherentes a la práctica científica.
(Universidad Peruana de Ciencias Aplicadas [UPC], 2017)

De igual manera, se garantiza que todos los datos incluidos en este documento están
respaldados por fuentes confiables, las cuales pueden ser verificadas en la sección de
referencias bibliográficas.

6.5 Student Outcome V

Definición:

“La capacidad de funcionar efectivamente en un equipo cuyos miembros juntos


proporcionan liderazgo, crean un entorno de colaboración e inclusivo, establecen objetivos,
planifican tareas y cumplen objetivos” (UPC, 2022, párr. 5).

Cumplimiento:

Para el desarrollo del presente proyecto se establecieron roles y responsabilidades


para cada miembro del equipo, tanto a nivel de trabajo ágil como a nivel general, los cuales
serán respetados hasta la culminación del proyecto. Cada miembro del equipo es responsable
de cumplir con sus asignaciones respetando la planificación establecida para el proyecto la
cual consta de 7 planes: Plan de Gestión del Alcance, Plan de Gestión del Cronograma, Plan
de Gestión del Costo, Plan de Gestión de Calidad, Plan de Gestión del Riesgo, Plan de
Gestión de Comunicaciones y Plan de Gestión de Interesados, con la finalidad de cumplir

303
satisfactoriamente los objetivos definidos para el presente proyecto. Para asegurar que se
esté cumpliendo con lo mencionado se realiza un monitoreo constante en base a los
entregables del proyecto y se llevan a cabo las ceremonias Scrum establecidas por cada
Sprint, incorporando en cada Sprint Retrospective un plan de acciones de mejora y
recopilando los aprendizajes del Sprint con la finalidad de contribuir con la mejora continua
del proyecto.

6.6 Student Outcome VI


Definición:

“La capacidad de desarrollar y llevar a cabo experimentos adecuados, analiza e


interpreta datos, y usa el juicio de ingeniería para sacar conclusiones” (UPC, 2022, párr. 6).

Cumplimiento:

Para llevar a cabo el desarrollo de la propuesta establecida en el proyecto, se siguió


un marco de trabajo ágil considerando 3 Sprints, de los cuales se obtuvo como resultado un
incremento por cada uno de ellos. Para validar cada incremento fue necesario definir y
ejecutar un plan de pruebas basado en el Plan de Gestión de Calidad establecido, dichas
pruebas se encuentran ligadas estrechamente a los criterios de aceptación establecidos por
cada HU implementada, considerando tanto pruebas manuales como automatizadas. Los
resultados obtenidos y su interpretación en base a los datos se pueden apreciar en la sección
de resultados de pruebas por cada Sprint en el Capítulo IV. Adicionalmente, se efectuó una
prueba de campo de la mano del PO y el especialista TI con la finalidad de corroborar la
efectividad predictiva del modelo propuesto en base a su exactitud y eficacia, para ello se
tomó como muestra un total de 100 estudiantes, los cuales se encuentran matriculados en un
curso de nivel secundario de la institución objetivo, pertenecen a 5 secciones diferentes y se
encuentran agrupados en cantidad de 20 estudiantes por sección. Los resultados y
procedimiento de la prueba se detallan en el Capítulo IV, asimismo, las conclusiones del
proyecto se pueden visualizar en el Capítulo VII.

6.7 Student Outcome VII


Definición:

“La capacidad de adquirir y aplicar nuevos conocimientos según sea necesario,


utilizando estrategias de aprendizaje adecuadas” (UPC, 2022, párr. 7).

304
Cumplimiento:

Para la elaboración del presente proyecto fue necesario adquirir nuevos conocimientos
mediante el análisis de artículos científicos pertenecientes a diversos autores que han
realizado estudios previos similares al propuesto y han brindado aportes significativos que
han servido de referencia para llevar a cabo la implementación de la presente propuesta.
Posterior al análisis realizado, se pudieron extraer diversos conocimientos en base a la
siguiente taxonomía: Modelos (Q1), Componentes (Q2), Tecnologías (Q3), Algoritmos (Q4)
y Validación (Q5). Dichos conocimientos se encuentran consolidados en el estado del arte
del proyecto y fueron adquiridos mediante estrategias de aprendizaje cognitivas al ser
llevados a la práctica mediante el desarrollo de la propuesta planteada y al ser usados para
generar un nuevo aporte a la literatura sistemática. El conocimiento adquirido también se
puede visualizar de manera sintetizada en el marco teórico del proyecto del Capítulo II.

CAPÍTULO VII – CONCLUSIONES DEL PROYECTO


En el presente capítulo se detallan las conclusiones y recomendaciones del proyecto
posterior a su implementación.

7.1 Conclusiones
Con el presente estudio se desarrolló un sistema web para predicción de riesgo
académico en centros de estudio de nivel secundario en Lima Metropolitana basado en
algoritmos bayesianos, tomando como objetivo de estudio el caso particular de la I.E.P.
Santiago Antúnez de Mayolo. Las principales contribuciones del estudio fueron: la
implementación de un modelo predictivo aplicable para otros casos de estudio, la selección
de algoritmos que proporcionen un rendimiento óptimo en el ámbito predictivo y la
determinación de los principales factores influyentes en el riesgo académico y en el
fenómeno de la reprobación.

En base a los resultados obtenidos tras la culminación del estudio se obtuvo lo siguiente:

• Al realizar un análisis exhaustivo de la literatura sistemática se encontró una serie de


estudios relacionados a los factores que influyen en el rendimiento académico de un
estudiante, como el de Hernández-Jácquez y Montes-Ramos (2020), el cual afirma que
el rendimiento académico de un estudiante puede verse afectado por problemas
económicos y falta de interés en los estudios, el de Alshanqiti y Namoun (2020), que
relaciona directamente el rendimiento académico con factores demográficos y sociales,

305
o el de Rico et al. (2019), que afirma que los principales factores influyentes son los
personales, familiares y aquellos que parten de la motivación de un estudiante; no
obstante, al realizar el análisis de cada uno de los factores expuestos por los autores,
adicionando el juicio de experto de los docentes de la institución objetivo, se pudieron
determinar que los factores que poseen mayor influencia y favorecen el riesgo académico
y con ello el incremento del fenómeno de la reprobación son los siguientes: Factores
familiares (F1), Factores sociales (F2), Factores económicos (F3) y Factores académicos
(F4).
• Se evidenció que los algoritmos clasificadores bayesianos, mediante sus 4 tasas de
retorno: Verdaderos Positivos (TP), Falsos Positivos (FP), Verdaderos Negativos (TN)
y Falsos Negativos (FN), permiten predecir con una eficacia de 99,0% y una exactitud
de 99,0% el riesgo estudiantil tomando en cuenta los factores determinados en el presente
estudio, los cuales son los familiares, sociales, económicos y académicos, confirmando
así la influencia directa de dichos factores con el fenómeno de la reprobación.
• Se evidenció que, aplicando el sistema web predictivo en la I.E.P. Santiago Antúnez de
Mayolo, se pudo reducir el índice de crecimiento anual de las reprobaciones de 24,52%
a 15,05%, lo cual evidencia una disminución de 9,47 puntos porcentuales para el
intervalo lectivo 2018-2022.
• El trabajar bajo un marco ágil de 3 Sprints permitió una mejora continua del producto al
facilitar la interacción entre el usuario y el equipo de desarrollo, aumentando así la
satisfacción del cliente por cada entregable presentado, lo cual se evidencia en el
feedback otorgado por el usuario en la retrospectiva de cada Sprint. Asimismo, los
indicadores SPI y CPI obtenidos al finalizar el proyecto con los valores de 1,02 y 1,1
respectivamente, evidencian un cumplimiento óptimo en tiempo y costes de la
planificación del proyecto tras la aplicación de este marco de trabajo. Adicionalmente,
el contar con una matriz de impedimentos tras la realización de los Daily Meeting por
Sprint, permitió al equipo detectar con anticipación la generación de 2 nuevos riesgos,
los cuales fueron registrados con los códigos R006 y R007 en la bitácora y fueron
mitigados satisfactoriamente al ser detectados a tiempo en base al plan de gestión de
riesgos. Por lo tanto, queda demostrada la importancia de la comunicación y la
planificación dentro de un proyecto para el cumplimiento de objetivos con respecto al
tiempo, calidad y costes, evidenciando así el principal beneficio de seguir un marco ágil
para el desarrollo de un proyecto, el cual es la mejora continua de la calidad del producto.

306
7.2 Recomendaciones
• Se recomienda considerar para la recolección de datos otros mecanismos como data
histórica, entrevistas o evaluaciones, en conjunto con la encuesta, para poder obtener
más información en base a los factores considerados para la determinación de las
variables del modelo propuesto los cuales son: Factores familiares (F1), Factores sociales
(F2), Factores económicos (F3) y Factores académicos (F4).
• Se recomienda realizar una retroalimentación anual del modelo propuesto utilizando
como datos de entrenamiento el histórico de predicciones de años lectivos pasados para
optimizar sus niveles de eficacia y exactitud.
• Se recomienda implementar el sistema propuesto en otras instituciones educativas
ubicadas en diferentes geografías a nivel nacional considerando para la predicción una
amplia gama de cursos dictados por docentes de diversas especialidades con la finalidad
de corroborar que los factores establecidos en el estudio presentan la misma relevancia
en geografías donde los valores de entrada posean mayor contraste a los obtenidos para
el estudio y se evalúe la posibilidad de cambiar o añadir nuevas variables al modelo
propuesto.

GLOSARIO DE TÉRMINOS
− Algoritmos Bayesianos: Algoritmos clasificadores con mayor eficacia y exactitud en
sus predicciones al reconocer patrones y aplicarse a conjuntos de datos en tiempo real.
− Machine Learning: Subconjunto de la inteligencia artificial en donde se entrenan
algoritmos para reconocer patrones conocidos en datos para que tengan la capacidad de
elaborar predicciones.
− Métrica: Sistemas de medición que sirven para cuantificar y evaluar aspectos de un
negocio, como tendencias, comportamientos o resultados.
− Minería de Datos: proceso mediante el cual se realiza la extracción de conocimiento
útil y se generan patrones de datos para facilitar el aprendizaje automático.
− Predicción: Acción de anunciar un hecho futuro en base a un acontecimiento dado.
− Sponsor: Individuo o compañía que aporta recursos para financiar un proyecto o evento.
− Stakeholder: Persona, organización o empresa que tiene interés en que se lleve a cabo
un proyecto o evento.

307
SIGLARIO
− ADA: Meta-algoritmo AdaBoost
− AUC: Área bajo la curva ROC
− DT: Árbol de Decisiones
− ELM: Máquina de Aprendizaje Extremo
− FN: Falsos Negativos
− FP: Falsos Positivos
− GBM: Máquina de Potenciación de Gradiente
− INEI: Instituto Nacional de Estadística e Informática
− KDD: Extracción del Conocimiento
− LR: Regresión Logística
− MINEDU: Ministerio de Educación
− ML: Aprendizaje Automático
− MLP: Perceptrón Multicapa
− PISA: Programa para la Evaluación Internacional de Estudiantes
− PMBOK: Guía de los fundamentos para la dirección de proyectos
− RF: Bosques Aleatorios
− RNA: Redes Neuronales Artificiales

REFERENCIAS BIBLIOGRÁFICAS

Abdulla, H. (2020). Using data mining techniques to predict student performance to support
decision making in university admission systems. IEEE Access, 8(1), 55462-55470.
https://doi.org/10.1109/ACCESS.2020.2981905

Adnan, M., Habib, A., Ashraf, J., Mussadiq, S., Ali, A., Abid, M., Bashir, M. & Ullah, S.
(2021). Predicting at-Risk Students at Different Percentages of Course Length for
Early Intervention Using Machine Learning Models. IEEE Access, 9, 7519-7539.
https://doi.org/10.1109/ACCESS.2021.3049446

Alshanqiti, A. & Namoun, A. (2020). Predicting Student Performance and Its Influential
Factors Using Hybrid Regression and Multi-Label Classification. IEEE Access, 8,
203827-203844. https://doi.org/10.1109/ACCESS.2020.3036572

308
Castrillón, O., Sarache, W., & Ruiz, S. (2020). Prediction of academic performance through
techniques of artificial intelligence. Formación Universitaria, 13(1), 93-102.
http://dx.doi.org/10.4067/S0718-50062020000100093

Cervera, D., Parra, O. & Prado, M. (2021). Forecasting model with machine learning in
higher education ICFES exams. International Journal of Electrical and Computer
Engineering (IJECE), 11(6), 5402-5410.
http://doi.org/10.11591/ijece.v11i6.pp5402-5410

Contraloría General de la República del Perú. (2021). N° 383-2021-CG-GCOC: Más del


32% de alumnos en 17 regiones no habría obtenido resultados satisfactorios en
2020. Gobierno del Perú. Recuperado el 5 de noviembre de 2021,
dehttps://www.contraloria.gob.pe/wps/wcm/connect/cgrnew/as_contraloria/prensa/
notas_de_prensa/2021/lima/np_383-2021-cg-gcoc

Deo, R., Mundher, Z., Ansari, N., Nguyenh-Huy, T., Mcpherson, T. & Galligan, L. (2020).
Modern Artificial Intelligence Model Development for Undergraduate Student
Performance Prediction: An Investigation on Engineering Mathematics Courses.
IEEE Access, 8, 136697-136724. https://doi.org/10.1109/ACCESS.2020.3010938

Ghorbani, R. & Ghousi, R. (2020). Comparing Different Resampling Methods in Predicting


Students’ Performance Using Machine Learning Techniques. IEEE Access, 8,
67899-67911. https://doi.org/10.1109/ACCESS.2020.2986809

Han, J., Kamber, M., & Pei, J. (2012). Data Mining: Concepts and Techniques (3ra ed.).
Elsevier Inc. https://doi.org/10.1016/C2009-0-61819-5

Hand, D., Mannila, H., & Smyth, P. (2001). Principles of Data Mining. The MIT Press.
https://doc.lagout.org/Others/Data%20Mining/Principles%20of%20Data%20Minin
g%20%5BHand%2C%20Mannila%20%26%20Smyth%202001-08-01%5D.pdf

Hernández-Jácquez, L. & Montes-Ramos, F. (2020). Modelo predictivo del riesgo de


abandono escolar en educación media superior en México. CienciaUAT, 15(1), 75-
85. https://doi.org/10.29059/cienciauat.v15i1.1349

Hernández-Orallo, J., Ramírez-Quintana, M. & Ferri-Ramírez, C. (2004). Introducción a la


Minería de Datos. Pearson Prentice Hall.

309
https://www.researchgate.net/publication/27299791_Introduccion_a_la_Mineria_de
_Datos

I.E.P. Santiago Antúnez de Mayolo. (2022). Inicio. I.E.P. Santiago Antúnez de Mayolo.
Recuperado el 12 de diciembre de 2021, de https://colegio-sam.edu.pe/

IEBS School. (2022). El modelo Kano: cómo identificar las necesidades ocultas de los
clientes. IEBS. Recuperado el 14 de diciembre de 2021, de
https://www.iebschool.com/blog/el-modelo-kano-satisfaccion-del-cliente-
management/

International Organization for Standardization & International Electrotechnical


Commission. (2011). ISO/IEC 25010:2011 - Systems and software engineering:
Systems and software Quality Requirements and Evaluation (SQuaRE) - System and
software quality models. ISO. Recuperado el 10 de septiembre de 2021, de
https://www.iso.org/standard/35733.html

Khan, I., Ahmad, A., Jabeur, N., & Mahdi, M. (2021). An artificial intelligence approach to
monitor student performance and devise preventive measures. Smart Learning
Environments, 8, 17. https://doi.org/10.1186/s40561-021-00161-y

Ledesma, S., Ibarra, A., Cabal, E., Amanza, D. & Avina, J. (2018). Analysis of Data Sets
with Learning Conflicts for Machine Learning. IEEE Access, 6, 1-1.
https://doi.org/10.1109/ACCESS.2018.2865135

Lee, J., Kim, M., Kim, D., & Gil, J.-M. (2021). Evaluation of Predictive Models for Early
Identification of Dropout Students. Journal of Information Processing Systems,
17(3), 630-644. https://doi.org/10.3745/JIPS.04.0218

Microsoft. (2022a). Paseo por el lenguaje C#. Microsoft Learn. Recuperado el 25 de marzo
de 2022, de https://learn.microsoft.com/es-es/dotnet/csharp/tour-of-csharp/overview

Microsoft. (2022b). SQL Server 2022. Microsoft Plataforma de Datos. Recuperado el 27 de


marzo de 2022, de https://www.microsoft.com/es-es/sql-server/sql-server-2022

Microsoft. (2022c). ¿Qué es ML.NET y cómo funciona? Microsoft Learn. Recuperado el 28


de marzo de 2022, de https://learn.microsoft.com/es-es/dotnet/machine-
learning/how-does-mldotnet-work

310
Microsoft. (2022d). ¿Está tu infraestructura preparada para la inteligencia artificial?
Microsoft Azure. Recuperado el 28 de marzo de 2022, de
https://azure.microsoft.com/es-es

Microsoft. (2022e). Azure App Service Plan. Microsoft Azure. Recuperado el 28 de marzo
de 2022, de https://azure.microsoft.com/es-es/services/app-service

Microsoft. (2022f). Azure App Service. Microsoft Azure. Recuperado el 28 de marzo de


2022, de https://azure.microsoft.com/es-es/services/app-service

Microsoft. (2022g). Azure SQL Database. Microsoft Azure. Recuperado el 28 de marzo de


2022, de https://azure.microsoft.com/es-es/services/sql-database

Microsoft. (2022h). Azure API Management. Microsoft Azure. Recuperado el 28 de marzo


de 2022, de https://azure.microsoft.com/es-es/services/api-management

Microsoft. (2022i). Azure Monitor. Microsoft Azure. Recuperado el 28 de marzo de 2022,


de https://azure.microsoft.com/es-es/services/monitor

Microsoft. (2022j). Azure Active Directory. Microsoft Azure. Recuperado el 28 de marzo de


2022, de https://azure.microsoft.com/es-es/services/active-directory

Microsoft. (2022k). Azure DNS. Microsoft Azure. Recuperado el 28 de marzo de 2022, de


https://azure.microsoft.com/es-es/services/dns

Microsoft. (2022l). Azure Key Vault. Microsoft Azure. Recuperado el 28 de marzo de 2022,
de https://azure.microsoft.com/es-es/services/key-vault

Microsoft. (2022m). Machine learning. Microsoft Azure. Recuperado el 28 de marzo de


2022, de https://azure.microsoft.com/es-es/products/machine-learning

Ministerio de Educación. (2018). Resultados Evaluación Internacional PISA 2018.


Ministerio de Educación. Recuperado el 18 de septiembre de 2021, de
http://umc.minedu.gob.pe/resultadospisa2018

Ministerio de Educación. (2022). Evaluación Muestral de Estudiantes (EM) 2022.


Ministerio de Educación. Recuperado el 19 de septiembre de 2021, de
http://umc.minedu.gob.pe/resultadosem2022/

311
Mubarak, A., Cao, H. & Zhang, W. (2020). Prediction of students’ early dropout based on
their interaction logs in online learning environment. Interactive Learning
Environments, 30(8), 1414–1433. https://doi.org/10.1080/10494820.2020.1727529

Norvig, P., & Russell, S. (2004). Inteligencia artificial: Un enfoque moderno (2a ed.).
Pearson Prentice Hall.
https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-
moderno-stuart-j-russell.pdf

Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (s.f.).


Educación. UNESCO. Recuperado el 9 de septiembre de 2021, de
https://es.unesco.org/creativity/sites/creativity/files/digital-
library/cdis/Educacion.pdf

Páez, S. (2019). Análisis comparativo de herramientas Open Source para Data Mining sobre
datos públicos del Ministerio de Educación de la República de Ecuador. [Tesis de
licenciatura, Pontificia Universidad Católica del Ecuador]. Repositorio PUCE.
https://repositorio.puce.edu.ec/items/503210ee-3331-4d11-b8e4-05094289240b

Pekuwali, A. (2020). Prediction of student learning outcomes using the Naive Bayesian
Algorithm (Case Study of Tama Jagakarsa University). IOP Conference Series:
Materials Science and Engineering, 823, 012056. https://doi.org/10.1088/1757-
899X/823/1/012056

Planning Poker Online. (2022). Planning Poker [Captura de pantalla].


https://planningpokeronline.com/AMZke8rIrOZgYr7SH45k

Project Management Institute. (2017). Guía de los fundamentos para la dirección de


proyectos (Guía del PMBOK®) (6a ed.). Project Management Institute Inc.
https://www.pmi.org/-/media/pmi/documents/public/pdf/pmbok-standards/pmbok-
guide-6th-errata.pdf?sc_lang_temp=es-ES

Queiroga, E., Ladislau, J., Kappel, K., Aguiar, M., Matsumura, R., Munoz, R., Villa-rroel,
R. & Cechinel, C. (2020). A Learning Analytics Approach to Identify Students at
Risk of Dropout: A Case Study with a Technical Distance Education Course. Applied
Sciences, 10(11), 3998. https://doi.org/10.3390/app10113998

312
Rico, A., Gaytán, N., & Sánchez, D. (2019). Construction and implementation of a model to
predict the academic performance of university students using the Naïve Bayes
algorithm. Diálogos sobre educación, 10(19), 509.
https://doi.org/10.32870/dse.v0i19.509

RPP Noticias. (2019). Perú sigue perdiendo competitividad y cae dos posiciones en ranking
global. RPP. Recuperado el 10 de diciembre de 2021, de
https://rpp.pe/economia/economia/peru-sigue-perdiendo-competitividad-y-cae-dos-
posiciones-en-ranking-global-economia-foro-economico-mundial-wef-noticia-
1223595

Samuel, A. (1959). Some studies in machine learning using the game of checkers. IBM
Journal of Research and Development, 3(3), 210-229.
https://doi.org/10.1147/rd.33.0210

Statista. (2018). ¿Qué tan preparada está América Latina para la educación digital?
Statista. Recuperado el 12 de mayo de 2022, de
https://es.statista.com/grafico/22645/la-digitalizacion-educativa-en-latinoamerica/

Trello. (2022). Tablero Scrum base del proyecto [Captura de pantalla].


https://trello.com/b/FuCATIe8/tablero-scrum-base

Universidad Peruana de Ciencias Aplicadas. (2017). Código de ética en la investigación


científica. Investigación UPC. Recuperado el 23 de junio de 2022, de
https://investigacion.upc.edu.pe/wp-content/uploads/2019/10/C%C3%B3digo-de-
%C3%A9tica-en-la-investigacion-cientifica-de-la-UPC.pdf

Universidad Peruana de Ciencias Aplicadas. (2022). Student outcomes. Pregrado UPC.


Recuperado el 20 de junio de 2022, de https://pregrado.upc.edu.pe/en/facultad-de-
ingenieria/carrera-de-ingenieria-desistemas-de-informacion/academic-information

Valdez, A. (2019). Machine Learning para Todos. IV CONCITEK Puno - Perú 2019.
https://doi.org/10.13140/RG.2.2.13786.70086

Yong, E., Nagles, N., Mejía, C., & Chaparro, C. (2017). Evolución de la educación superior
a distancia: desafíos y oportunidades para su gestión. Revista Virtual Universidad
Católica del Norte, 50, 81-105.
https://revistavirtual.ucn.edu.co/index.php/RevistaUCN/article/view/814

313
Zárate, J., Bedregal, N. & Cornejo, V. (2021). Modelos de clasificación para reconocer
patrones de deserción en estudiantes universitarios. Ingeniare. Revista chilena de
ingeniería, 29(1), 168-177. https://doi.org/10.4067/S0718-33052021000100168

314
ANEXOS
1. Documentos de Compromiso
Anexo 1: Carta de autorización de la iniciación del proyecto

315
316
317
318
319
2. Gestión del Proyecto
Anexo 2: Reunión N°1 - Levantamiento de Información

320
Anexo 3: Reunión N°2 - Levantamiento de Información

321
Anexo 4: Reunión N°3 – Presentación de la planificación del Proyecto

322
Anexo 5: Reunión N°4 – Toma de requisitos del PO

323
Anexo 6: Reunión N°5 – Presentación de los artefactos ágiles y arquitectura

324
3. Actas de eventos o ceremonias
Anexo 7: Actas de reuniones Sprint 1
✓ Sprint Planning

325
326
327
✓ Consolidación de Daily

328
329
330
331
✓ Presentación y Aprobación de los prototipos actualizados para el Sprint 1

332
✓ Sprint Review

333
✓ Sprint Retrospective

334
✓ Refinamiento del Product Backlog

335
336
✓ Aprobación del Entregable 1

337
✓ Aprobación de UX del Incremento 1

338
✓ Cumplimiento de Indicadores por HU – Incremento 1

339
340
✓ Aprobación de Pruebas de Desempeño: Estrés y Concurrencia – Incremento 1

341
Anexo 8: Actas de reuniones Sprint 2
✓ Sprint Planning

342
343
✓ Consolidación de Daily

344
345
346
347
348
✓ Presentación y Aprobación de los prototipos actualizados para el Sprint 2

349
✓ Sprint Review

350
351
✓ Sprint Retrospective

352
✓ Refinamiento del Product Backlog

353
354
✓ Aprobación del Entregable 2

355
✓ Aprobación de UX del Incremento 2

356
✓ Cumplimiento de Indicadores por HU – Incremento 2

357
358
359
✓ Aprobación de Pruebas de Desempeño: Estrés y Concurrencia – Incremento 2

360
Anexo 9: Actas de reuniones Sprint 3
✓ Sprint Planning

361
362
✓ Consolidación de Daily

363
364
365
366
✓ Presentación y Aprobación de los prototipos actualizados para el Sprint

367
✓ Sprint Review

368
✓ Sprint Retrospective

369
✓ Refinamiento del Product Backlog

370
✓ Aprobación del Entregable 3

371
✓ Aprobación de UX del Incremento 3

372
✓ Cumplimiento de Indicadores por HU – Incremento 3

373
374
✓ Aprobación de Pruebas de Desempeño: Estrés y Concurrencia – Incremento 3

375
Anexo 10: Aprobación del Análisis del Negocio

376
Anexo 11: Aprobación de la Factibilidad del Proyecto

377
Anexo 12: Aprobación de la Planificación del Proyecto

378
Anexo 13: Aprobación de la Arquitectura del Proyecto

379
Anexo 14: Aprobación del Plan de Gestión de Calidad del Producto

380
4. Documentos Varios
Anexo 15: Aprobación técnica y funcional del Modelo Predictivo de Riesgo
Estudiantil

381
Anexo 16: Aprobación del cumplimiento de los indicadores del proyecto

382
Anexo 17: Aprobación del entregable final del proyecto

383
Anexo 18: Servicios Azure
1- APP PLAN SERVICE

2- Key Vaults

3- Api Managment

384
4- Azure SQL Database

5- Azure Monitor

6- Azure Active Directory

385
7- Azure DNS

Anexo 19: Costos de sueldos del mercado


SCRUM MASTER

386
PRODUCT OWNER

SENIOR MACHINE LEARNING

387
Anexo 20: Encuestas a estudiantes

388
Anexo 21: Aprobación de calidad del producto

389
390
Anexo 22: Sueldo Soporte Técnico

391

También podría gustarte