Ristie22 PDF
Ristie22 PDF
A g o s t o 1 9 • A u g u s t 1 9
Edição / Edition
Nº. 22, 08/2019
ISSN: 1646-9895
Indexação / Indexing
Academic Journals Database, CiteFactor, Dialnet, DOAJ, DOI, EBSCO, GALE, Index-
Copernicus, Index of Information Systems Journals, Latindex, ProQuest, QUALIS,
SCImago, SCOPUS, SIS, Ulrich’s.
Editorial
idgarcia@[Link]
1
Facultad de Ingeniería en Ciencias Aplicadas. Universidad Técnica del Norte. Ibarra, Ecuador
Pages: v–vi
Agradecimientos
Un reconocimiento profundo:
A los autores, por haber confiado y presentado sus trabajos con alta calidad científica.
A los miembros del comité científico del II Congreso Internacional en Ciencias de la
Computación (INCICS 2019) por su colaboración en calidad de revisores de los artículos
científicos. Esto permitió seleccionar los mejores manuscritos para su presentación en el
evento y su publicación en este número especial de la revista RISTI.
A las instituciones que proporcionaron su aval y/o apoyo académico para el desarrollo
de INCICS 2019: Universidad Técnica del Norte (Ecuador), Universidad de Sevilla
(España), Universidad Complutense de Madrid (España), Universidad de Minho
(Portugal), Universidad Nacional de la Plata (Argentina), Secretaría de Educación
Superior, Ciencia, Tecnología e Innovación (SENESCYT, Ecuador), Red CEDIA
(Ecuador), Red RTC-REDU (Ecuador) y Asociación Ibérica de Sistemas y Tecnologías
de Información (AISTI, Portugal).
EDITORIAL
La Computación en la sociedad actual...............................................................................v
Iván García Santillán
ARTIGOS / ARTICLES
Propuesta de un videojuego educativo para la enseñanza-
aprendizaje de la clasificación de requisitos en ingeniería de software ........................... 1
Gabriel Elías Chanchí G., María Clara Gómez A., Wilmar Yesid Campo M.
Estimación de la calidad de la experiencia del
videostreaming desplegado sobre redes WiFi 5 definidas por software......................... 15
Luis Eduardo Echeverry Londoño, Wilmar Yesid Campo Muñoz, Gabriel Elías Chanchí
Golondrino
Aplicación móvil en los ambientes educativos en Ecuador:
“Monitoreando tareas y Asistencia en tiempo Real”...................................................... 29
Lady [Link]-Tapia, Eleanor Varela-Tapia, Jenny [Link]-Zambrano, Isaakc Ortiz
Aguirre, Lissette [Link]-Campoverde, William [Link]-Duque
Sistema de Indexación de Documentos Jurisprudenciales
Soportado en Inteligencia Artificial.................................................................................41
Cristian Camilo Ordoñez, Edier Anchico Silva, José Armando Ordoñez,
Cristian Méndez, Hugo Armando Ordoñez
Análisis de accesibilidad web de las universidades y escuelas
politécnicas del Ecuador aplicando la norma NTE INEN ISO/IEC 40500:2012 ..........53
Milton Campoverde-Molina, Sergio Luján-Mora, Llorenç Valverde
Optimización del transporte público urbano mediante
algoritmos de búsqueda Tabú y PSO: Medellín, Colombia............................................ 69
Laura Betancur-Delgado, Miguel A. Becerra, Carolina Duque-Mejía,
Diego Peluffo-Ordóñez, Karla C. Álvarez-Uribe
Traffic analysis of internet applications on mobile
devices over LTE and Wireless networks.........................................................................81
Albert Espinal, Rebeca Estrada, Carlos Monsalve
Análisis de emociones y sentimientos sobre el
discurso de firma del acuerdo de paz en Colombia.........................................................95
Gabriel Elías Chanchí G, Amelia Elizabeth Córdoba G
Human upper limbs movements imitation in a
humanoid robot using a natural user interface.............................................................108
Acurio Maldonado Santiago Alejandro, Robayo Jácome Darío Javier, Acurio
Maldonado Daniel Marcelo, Amancha Proaño Pablo, Cárdenas Salazar Álvaro
Gabriel Elías Chanchí G.1, María Clara Gómez A.2, Wilmar Yesid Campo M.3
1
Universidad de Cartagena, Avenida del Consulado, calle 30 No. 39 B - 192, 130001, Cartagena de Indias,
Colombia.
2
Universidad de Medellín, Cra. 87 No. 30 - 65, 050026, Medellín, Colombia.
3
Universidad del Quindío, Cra. 15 Cll 12 norte, 630004, Armenia, Colombia.
Pages: 1–14
classification of requirements. The video game was conceived using the Design
Thinking methodology, implemented through the GDevelop platform and evaluated
from the usability perspective, using Pinelle video game heuristics.
Keywords: analysis phase; functional requirements; non-functional requirements;
software engineering; video game.
1. Introducción
La ingeniería del software es una disciplina que comprende los aspectos relacionados
con la producción de software, desde las primeras etapas de especificación de requisitos
del sistema a construir, hasta el mantenimiento posterior su implementación en su
entorno real de operación (Sommerville, 2011; Laird, 2016). Así, la ingeniería de software
proporciona diversas métricas y metodologías que pueden usarse como especificaciones
para la administración de personal involucrado en proyectos de software, ciclos de vida
de un proyecto de software, costos de un proyecto, y los demás aspectos administrativos
que implica el desarrollo de software. La ingeniería de software ofrece metodologías,
herramientas y técnicas para desarrollar software. Estas metodologías son llamadas
también modelos de proceso de software y dan pautas para construir un software y
generar sus productos asociados como son los manuales técnicos, de usuario y de
instalación así el código fuente, entre otros (Jabangwe, Edison, & Nguyen, 2018).
Una de las fases más relevantes en el proceso de desarrollo de software es la de análisis,
puesto que en ella se concibe y comprende la naturaleza de la problemática a solucionar
a través del software, es decir, en esta fase se define el alcance del software a construir
(Buitrón, Flores-Rios, & Pino, 2018). Esta es una etapa crítica, puesto que una definición
imprecisa o incompleta del alcance del sistema puede generar un sobreesfuerzo en fases
de diseño e implementación para dar cumplimiento a los tiempos definidos inicialmente
entre el equipo de desarrollo y el cliente (Berzal, 2006; Mall, 2018). En la fase de
análisis se definen por lo general los roles de los usuarios del sistema, se caracteriza el
dominio del problema y se especifican los requisitos funcionales y no funcionales del
sistema a construir (Buitrón, Flores-Rios, & Pino, 2018). Dentro de la fase de análisis es
fundamental que a través de la especificación de requisitos funcionales y no funcionales,
el equipo de desarrollo comprenda completamente la naturaleza del sistema a construir,
así como su comportamiento (Gasca-Hurtado, Muñoz, Mejia, & Calvo-Manzano, 2014).
En el campo de la Ingeniería Informática o de Sistemas, la temática de requisitos es
abordada dentro de los cursos de Ingeniería de Software o afines, como parte de la
fase de análisis del proceso de desarrollo de software. En este contexto académico, se
han evidenciado dificultades por parte de los estudiantes de estos cursos en cuanto a
redacción, reconocimiento y la diferenciación de requisitos funcionales y no funcionales.
En este sentido, según (Medina, Hernández, Alonso, & Solis, 2012), la especificación de
requisitos es una tarea compleja en los futuros ingenieros porque es necesario realizar
tareas fundamentales como: tratar con la naturaleza del sistema y comprender su
ambiente, encontrar los componentes y su interacción dentro del sistema, definir los
servicios que el sistema debe ofrecer al usuario y definir las restricciones o limitantes
del sistema. Así mismo, en el proceso de desarrollo de software se suele hacer énfasis
en los requisitos funcionales por sobre los no funcionales, a pesar que estos requisitos
definen aspectos relevantes como la usabilidad, la flexibilidad, el rendimiento, la
2. Metodología
El desarrollo de esta investigación contempla cuatro fases a saber, adaptadas a partir
de la metodología Design Thinking: empatizar y definir, idear, prototipar y evaluar
(Serrano & Blázquez, 2015; Razzouk & Shute, 2012; Henriksen, Richardson, & Rohit,
2017) (ver Figura 1).
3. Marco Conceptual
En esta sección se presentan un conjunto de conceptos relevantes para el desarrollo de la
presente investigación: fase de análisis, requisitos funcionales, requisitos no funcionales
y plataforma GDevelop.
Por otra parte, en la Figura 4 se presenta la interfaz final de escritorio del juego
desarrollado en la plataforma libre GDevelop. A diferencia de la etapa de diseño, en
la fase de prototipado se optó por cambiar las imágenes de las cestas por imágenes de
carpetas, teniendo en cuenta que éstas corresponden a representaciones visuales que el
usuario puede asociar de manera más adecuada.
Tal como se aprecia en la Figura 4, los diferentes ítems u objetos del videojuego
pueden ser en este caso de dos tipos específicos: sprites (requisito aleatorio, carpetas,
botón de iniciar o terminar, fondo del escenario, cesped) o mensajes en pantalla
(puntaje, intentos, mensaje en el fondo de la pantalla). Es importante resaltar que
los sprites del juego pueden ser asociados con imágenes, como es el caso del post-
it donde se ubican los requisitos o las carpetas en donde el jugador deposita los
requisitos funcionales o no funcionales.
Heurística Descripción
H1. Respuesta consistente a las El videojuego debe responder de manera predecible a las diferentes
acciones del usuario. acciones del usuario. Los movimientos del personaje, las colisiones y
las leyes físicas se corresponden con el mundo real.
H2. Personalización de El videojuego debe permitirle al usuario configurar las opciones de
configuraciones multimedia. audio, video, la velocidad del juego y el nivel de dificultad.
H3. Comportamiento de las Las unidades tienen un comportamiento predecible y razonable dentro
unidades controladas. del videojuego, guardando relación con el mundo real.
H4. Vistas sin obstrucción para Se debe proporcionar vistas claras y libres de obstrucción. Debe tener
las acciones del usuario. la posibilidad de seleccionar la cámara más adecuada.
H5. Omisión de contenidos El juego debe posibilitar al usuario la opción de omitir contenidos
frecuentes y repetitivos. frecuentes y repetitivos que se presenten en diferentes momentos.
H6. Entradas intuitivas y Las entradas con los que el usuario interactúa deben ser intuitivos y
personalizadas. personalizables, con el fin de hacer más eficiente la interacción.
H7. Controles fáciles de Los controles de interacción con el juego deben tener el nivel de
gestionar. sensibilidad y respuesta que facilite la interacción del usuario.
H8. Información sobre el estado El juego debe proporcionar al usuario información clara sobre el
del juego. estado del juego (nivel, vidas, salud, armas, etc), la cual le permita
cumplir los objetivos del juego de manera adecuada.
H9. Instrucciones, entrenamiento La ayuda debe ser de fácil acceso y presentarse en forma clara. Se
y ayuda. deben proveer niveles de entrenamiento que faciliten el aprendizaje
del funcionamiento del juego.
H10. Representaciones visuales Las representaciones visuales usadas por el juego deben ser fáciles de
fáciles de interpretar. interpretar y acordes con la información del mundo real.
Heurística Comentarios
H1 El videojuego responde de manera consistente a las acciones del usuario, siendo posible
obtener retroalimentación en cuanto al movimiento del requisito en pantalla hacia la
derecha o hacia la izquierda.
El botón iniciar y/0 terminar del videojuego responde de manera adecuada a lo que el
usuario espera que ocurra antes de presionarlo.
H2 El videojuego carece de las opciones para modificar la velocidad con la que el requisito
desciende, y también de las opciones para configurar los efectos multimedia del mismo
(deshabilitar la música de fondo y los efectos de sonido).
H3 Los diferentes objetos del videojuego se comportan en su mayoría guardando relación con
el mundo real.
Se puede mejorar la retroalimentación, agregando una animación al momento en que cada
requisito es depositado en alguna de las carpetas de requisitos funcionales y no funcionales.
H4 El juego no presenta ninguna obstrucción visual en las diferentes interacciones que realiza
el jugador.
H5 El juego carece de contenido frecuente y repetitivo como publicidad o videos alusivos al juego.
H6 El juego hace uso de entradas sencillas e intuitivas (flecha hacia la derecha y flecha hacia la
izquierda) para el movimiento de los requisitos hacia la derecha o izquierda.
El juego no permite la personalización de las teclas con las que el jugador interactúa. En
este sentido se podría agregar dicha funcionalidad para configurar otras teclas comunes
como (A y D).
H7 El juego no permite la configuración de la sensibilidad y el nivel de respuesta de los
controles, sin embargo debido a su sencillez, presenta un tiempo de respuesta adecuado a
las acciones del usuario.
H8 El juego presenta durante toda la interacción el número de intentos y el puntaje obtenido
por el jugador.
Con el fin de generar una mayor retroalimentación en el jugador, se sugiere que en el
estado del juego se presente un indicador con el número de requisitos funcionales y no
funcionales acertados.
H9 Si bien el juego es intuitivo y sencillo no presenta instrucciones de ayuda o manejo, por lo
que se recomienda incluir esta opción.
Se sugiere incluir una opción que muestre brevemente las definiciones de requisitos
funcionales y no funcionales.
H10 Las representaciones visuales del juego son adecuadas y están relacionadas con el mundo
real (carpeta de requisitos, post-it con el requisito aleatorio generado, etc.).
Referencias
Berzal, F. (2006). El ciclo de vida de un sistema de información. Granada-España:
Universidad de Granada.
Borgida, A., Dalpiaz, F., Horkoff, J., & Mylopoulos, J. (2013). Requirements models for
design- and runtime: A position paper. 5th International Workshop on Modeling in
Software Engineering (MiSE) (págs. 62-68). San Francisco, CA, USA: IEEE.
Buitrón, S., Flores-Rios, B., & Pino, F. (2018). Elicitación de requisitos no funcionales
basada en la gestión de conocimiento de los stakeholders. Revista Ingeniare, 26(1),
142–156.
Chung, L., & do Prado Leite, J. (2009). On Non-Functional Requirements in Software
Engineering. En V. Chaudhri, G. P., & E. Yu, Conceptual Modeling: Foundations
and Applications. Lecture Notes in Computer Science (págs. 363-364). Springer,
Berlin, Heidelberg.
Cuartas, J. (2016). Creación de videojuegos con GDevelop. Bogota, Colombia: Fundación
Universitaria Los Libertadores.
Durán, E. (2011). El uso del uml en la fase de análisis del proceso de desarrollo de un
software educativo. Revista Ingeniería Solidaria, 7(12-13), 83–91.
Enriquez, J., & Casas, S. (2013). Usabilidad en aplicaciones móviles. Informe Científico
Técnico UNPA, 25–47.
Gasca-Hurtado, G., Muñoz, M., Mejia, J., & Calvo-Manzano, J. (2014). Software
Requirements Development: A Path for Improving Software Quality.
Communications in Computer and Information Science, 425, 194–205.
Henriksen, D., Richardson, C., & Rohit, M. (2017). Design Thinking: A Creative Approach
to Educational Problems of Practice. Thinking Skills and Creativity, 26, 140–153.
IEEE Std. 830-1998. (2008). Especificación de Requisitos según el estándar IEEE 830.
Obtenido de [Link]
pdf
Jabangwe, R., Edison, H., & Nguyen, A. (2018). Software engineering process models
for mobile app development: A systematic literature review. Journal of Systems and
Software, 145, 98–111.
Laird, L. (2016). Strengthening the “Engineering” in Software Engineering Education: A
Software Engineering Bachelor of Engineering Program for the 21st Century. IEEE
29th International Conference on Software Engineering Education and Training
(CSEET) (págs. 128-131). Dallas-USA: IEEE.
Lauenroth, K., Kamsties, E., & Hehlert, O. (2017). Do Words Make a Difference? An
Empirical Study on the Impact of Taxonomies on the Classification of Requirements.
IEEE 25th International Requirements Engineering Conference (RE) (págs. 273-
282). Lisbon: IEEE.
Mall, R. (2018). Fundamentals of Software Engineering. Delhi: PHI Learning.
Medina, J., Hernández, V., Alonso, L., & Solis, E. (2012). Análisis de Ingeniería de
Requerimientos: Alta de Unidades de Aprendizaje en la UAI-Agro (México). Revista
Vinculos, 25–40.
Melegati, J., Goldman, A., Kon, F., & Wang, X. (2019). A model of requirements
engineering in software startups. Information and Software Technology, 109,
92–107.
Mutis, E. (2016). Diseño de una Aplicación dirigida al área de la salud para el control de
agendamiento de citas y servicios domiciliarios médicos para pacientes. Catalunya:
Universitat Oberta de Catalunya.
Pérez-Ortega, I. (2017). Creación de Recursos Educativos Digitales: Reflexiones sobre
Innovación Educativa con TIC. International Journal of Sociology of Education,
244–268.
Pinelle, D., Wong, N., & Stach, T. (2008). Heuristic Evaluation for Games: Usability
Principles for Video Game Desing. CHI 2008 Proceedings - Game Zone, (págs.
1453-1462). Florencia-Italia.
Razzouk, R., & Shute, V. (2012). What Is Design Thinking and Why Is It Important?
Review of Educational Research, 82(3), 330–348.
Serrano, M., & Blázquez, P. (2015). Design Thinking - Lidera el presente, crea el futuro.
Madrid: ESIC Editorial.
Valentim, N., & Conte, T. (2014). Improving a Usability Inspection Technique Based
on Quantitative and Qualitative Analysis. Brazilian Symposium on Software
Engineering (págs. 171-180). Maceio: IEEE.
Vetterli, C., Brenner, W., Uebernickel, F., & Petrie, C. (2013). From palaces to yurts: Why
requirements engineering needs design thinking. IEEE Internet Computing, 17(2),
91–94.
Luis Eduardo Echeverry Londoño1, Wilmar Yesid Campo Muñoz2, Gabriel Elías Chanchí
Golondrino3
1, 2
Universidad del Quindío, Cra. 15 Cll 12 norte, 630004, Armenia, Colombia.
3
Universidad de Cartagena, Avenida del Consulado, calle 30 No. 39 B - 192, 130001, Cartagena de Indias,
Colombia.
Pages: 15–28
Abstract: Internet traffic has increased thanks to the video streaming service
whose consumption is mostly made through mobile devices from homes, where
WiFi networks are regularly used. Therefore, new standards have been promoted,
which offer greater bandwidth such as WiFi 5, and allow the adaptability of the
network infrastructure through networks defined by SDN software. In this paper
we present the convergence of these two technologies. We build a WiFi 5 SDN
emulated network made up of real and virtualized equipment, videos with different
codecs are emitted through the network and their QoE is estimated, by means of the
subjective MOS mean opinion score metric and objectively by means of the Evalvid
tool. Thus, the experiments allow to know the behavior of the WiFi 5 SDN from the
perspective of the QoE.
1. Introducción
En los últimos años se ha incrementado de manera notoria la cantidad de usuarios de
internet, así mismo, cada vez se ofertan nuevas aplicaciones para la variedad de usuarios
de internet. El incremento del consumo de contenido vía streaming en Latinoamérica en
enero del año 2018, creció un 15% respecto del año anterior, además el consumo supera
ampliamente a la televisión abierta (Elgabli & Aggarwal, 2018). Así mismo se estima que
para el año 2021 se triplicará el tráfico de internet con respecto al generado en el año
2016, siendo el consumo de video uno de los grandes responsables de dicho aumento, ya
que se calcula que para ese año alcanzará una cifra del 82 % del total del tráfico de la red
(Cisco, 2015). Como consecuencia de esta alta demanda de tráfico se puede presentar
congestión, además, se debe tener en cuenta que los datos de control también terminan
sumándose al tráfico general de la red, causando en muchas ocasiones una mala calidad
del servicio QoS (del inglés Quality of Service) y generando a su vez una mala percepción
en los servicios por parte de los usuarios, esto es, una mala calidad de la experiencia QoE
(del inglés Quality of Experience) (Nunes Astuto et al., 2014).
La QoS puede ser desglosada en cuatro polos. El primer polo trata las necesidades
de QoS del cliente, mediante las cuales se define la calidad que se exige para un
determinado servicio, se expresan en un lenguaje corriente. El segundo polo habla
de la QoS ofrecida por el proveedor, en este caso se expresa mediante los valores
especificados de los parámetros como el retardo, la variación del retardo, pérdida
de paquetes o throughput. El tercer polo hace referencia a la QoS conseguida por el
proveedor, que es en realidad la calidad real alcanzada y entregada al cliente, esta
se mide mediante valores proporcionados a los parámetros del segundo polo. El
último polo, donde se desarrolla esta investigación, hace alusión a la QoS percibida
por el cliente, mediante la cual se dictamina el nivel de QoE que los clientes creen
haber experimentado, esta se expresa en términos del nivel de satisfacción y no en
terminología técnica (UIT-T, 2001).
En el año 2016 se calculó que en los años futuros la mayoría del tráfico multimedia de
internet se transmitirá de forma inalámbrica (Cisco, 2015) y en el inicio del año 2018
se publicaron cifras que indican que el consumo de este tipo de contenido en su gran
mayoría se realiza desde dispositivos móviles como celulares y tabletas, llegando a un
82 % del consumo multimedia total, mientras que los computadores llegan tan solo al
10 % (Elgabli & Aggarwal, 2018). Es en el hogar en donde más se consume el contenido
multimedia, lugar en donde los dispositivos mencionados anteriormente, por lo regular
hacen uso de una conexión inalámbrica de área local para consumir estos servicios
(Flaithearta, Melvin, & Schukat, 2015).
Por lo anterior el instituto de ingenieros eléctricos y electrónicos IEEE (del inglés Institute
of Electrical and Electronics Engineers) ha realizado investigaciones para aumentar las
velocidades de transmisión, así en sus más recientes versiones presenta la capacidad de
expandir su ancho de banda al doble de sus antecesores, alcanzando velocidades teóricas
de hasta 1.3 Gbps, mediante el uso de tres flujos de información (Eng Hwee Ong et al.,
2. Metodología
En la figura 1, se muestra la arquitectura utilizada para el desarrollo de este artículo la
cual está constituida por tres diferentes etapas. A continuación, se realiza la descripción
de cada una de ellas.
Este servidor se comunica con la red SDN mediante una conexión de tipo ethernet, a través
de la cual se realiza la distribución del contenido multimedia generado por NGINX. Para
esta investigación el contenido de videostreaming corresponde a dos videos. El primer
video denominado Stole The Show feat utilizado para el servicio de video bajo demanda
VoD (del inglés video on demand) soportado por el protocolo RTMP cuya duración de
la transmisión fue de 1 minuto y 30 segundos. El segundo video denominado Foreman
que esta sin codificar el cual se entrega a la herramienta Evalvid que está implantada
de manera distribuida entre el servidor de la etapa I y el cliente de la etapa III. Evalvid
es programado para codificar a Foreman mediante tres códec diferentes y así poder
comparar los resultados y determinar cuál de ellos presenta una mejor QoE.
manipulación del tráfico y de gestionar su paso por cada uno de los equipos implicados
en la red, empezando por el servidor y terminando en el cliente externo. El controlador
también se encarga de toda la gestión y de dictaminar como debe ejecutarse el
tratamiento de los paquetes en los switches de la red. Por el lado de los AP el ODL cubre
las características más importantes como el SSID (del inglés Service Set Identifier), el
canal, el estándar 802.11, la contraseña, etc. Así, el controlador ODL sirve para establecer
un puente entre el modelo tradicional de control de gestión de red y la arquitectura SDN,
a través de capacidades de visibilidad y control mejorados que incluyen aspectos como;
una topología y estado basados en una lógica centralizada para los recursos de red tanto
físicos como virtuales, capacidades de monitorización sin interrupción que no afectan
las comunicaciones, capa de abstracción de servicios dirigida al modelo YANG, que es el
estándar de la industria para asignar aplicaciones de red a dispositivos subyacentes, una
interfaz modular y estándar hacia el sur de gestión de red como OpenFlow, interfaces
hacia el norte que exponen las capacidades SDN a las aplicaciones de red, al mismo
tiempo que realiza la abstracción de la infraestructura subyacente.
El gestor OFM brinda las capacidades necesarias para manipular de forma centralizada
las tablas de conmutación implícitas en los switches y AP de la red, permite establecer
las reglas que serán entregadas al ODL para controlar el tráfico, de forma que se pueda
restringir o habilitar en algunas secciones de la topología, a través de la creación de listas
de control de acceso. Por otra parte, el OFM es una aplicación que llama a las API REST
(del inglés Application Programming Interface Representational State Transfer) para
recuperar el inventario de información del dispositivo Openflow y para la recopilación
estadística de su comportamiento (Lee, Ko, Suh, Jang, & Pack, 2017).
Con la integración de estas herramientas, fue posible llevar a cabo la construcción de la
red que hace parte del escenario de experimentación. En la figura 2 se muestra la topología
de red WiFi 5 SDN que se implementó, la cual cuenta con dispositivos reales y emulados,
conexiones cableadas reales y virtuales y, con conexiones inalámbricas virtuales.
La Etapa II, cuenta además con un dispositivo adaptador USB-Ethernet que permite
la conexión cableada entre el computador portátil que aloja la red WiFi 5 SDN y el
computador portátil externo, el cual realiza la estimación de la QoE.
3. Escenario de experimentación
Una vez realizadas las pruebas de conectividad entre todos los dispositivos de la SDN del
escenario emulado, el controlador ODL ya cuenta con la información de todos los
dispositivos implicados y la topología de red la cual se muestra a través de su interfaz
gráfica, ver figura 3. En la figura 3 se puede observar la topología del escenario de
experimentación completa, incluyendo los dos computadores portátiles en donde están
alojados el servidor y el cliente externo. Las conexiones entre las estaciones y los AP son
representadas por el controlador ODL como cableadas, debido que la versión utilizada
no cuenta aún con el soporte para representar conexiones inalámbricas.
En la figura 4 se presenta la interfaz del OBS y la transmisión del video con el protocolo
RTMP.
Sobre esta transmisión, se llevó a cabo una inspección con mayor detalle de las
capacidades y funcionalidades que presenta el controlador ODL. Por ejemplo, en la
figura 5 puede observarse que el ODL permite para los dispositivos de red tales como
los AP y los switches, visualizar información estadística recopilada por el controlador,
referente a los flujos de información que han pasado por un nodo en específico, para este
caso en particular se presentan los datos estadísticos del AP 2 (la última fila) luego de
realizar la transmisión del Videostreaming, desde la interfaz del controlador también se
pueden obtener datos como la dirección MAC de los dispositivos de red, el nombre de la
interfaz y el puerto de conexión.
4. Resultados y Análisis
En esta sección se presentan los resultados obtenidos con las pruebas realizadas para
la estimación de la QoE para el video Stole The Show feat usando el servidor NGINX
y los resultados de las transmisiones por videostreaming del video Foreman, el cual
originalmente se encuentra en formato “.yuv” por lo que no se incluye audio. Foreman
es codificado mediante la herramienta Evalvid y posteriormente es enviado a través de
la red WiFi 5 SDN.
Figura 7 – Calificaciones de los 19 usuarios para el videostreaming sobre la red WiFi 5 SDN
De acuerdo a la figura 7, la calidad del video obtuvo una calificación promedio para la MOS
de 4,0 y la calidad del audio obtuvo una calificación promedio para la MOS de 4,58. Con
estos valores promedio y tomando como referencia la métrica MOS de la tabla 1, se establece
que la calidad del video se ubica en un nivel bueno, mientras que la calidad del audio se
ubica en un nivel excelente. Si se le da el mismo peso a la calidad del audio que a la calidad
del video, para la transmisión de videostreaming sobre la red WiFi 5 SDN, se obtiene en
promedio un valor de MOS de 4,29 que corresponde a un nivel bueno de acuerdo a la tabla 1.
Figura 8 – QoE para el video con códec MPEG-4 parte 2 sobre la red WiFi 5 SDN
Figura – 9 QoE para el video con códec MPEG-4 parte 2/H263 sobre la red WiFi 5 SDN
Con los valores de la figura 9.a, para la calidad del video se obtuvo una calificación
promedio para los 19 usuarios de 4,0 este valor estima un nivel de QoE bueno de acuerdo
a la tabla 1. Por otra parte, la PSNR arrojada por Evalvid tiene un valor promedio de
20,98 dB, que de acuerdo a la tabla 2 corresponde con una métrica MOS de 2, este valor
de MOS estima un nivel de QoE pobre de acuerdo a la tabla 1. Por lo tanto, las medidas
subjetivas dieron una mejor valoración a la calidad del video respecto a la obtenida a
través del método objetivo usando la herramienta Evalvid, con una diferencia de dos
niveles (buena versus pobre).
Figura – 10 QoE del video con códec MPEG-4 Parte 10/H.264, sobre la red WiFi 5 SDN
Referencias
Cisco. (2015). Cisco Visual Networking Index: Forecast and Methodology, 2015-2020.
Forecast Methodol., 22.
Elgabli, A., & Aggarwal, V. “GroupCast: Preference-aware cooperative video streaming
with scalable video coding,” IEEE INFOCOM 2018 - IEEE Conference on Computer
Communications Workshops (INFOCOM WKSHPS), Honolulu, HI, 2018, pp.
616-621.
Eng Hwee Ong, Kneckt, J., Alanen, O., Chang, Z., Huovinen, T., & Nihtila, T. (2011).
IEEE 802.11ac: Enhancements for very high throughput WLANs. In 2011 IEEE 22nd
International Symposium on Personal, Indoor and Mobile Radio Communications
(pp. 849–853). IEEE. [Link]
Estrada-Solano, F., Ordonez, A., Granville, L. Z., & Caicedo Rendon, O. M. (2017). A
framework for SDN integrated management based on a CIM model and a vertical
management plane. Computer Communications, 102, 150–164. [Link]
org/10.1016/[Link].2016.08.006
Flaithearta, P., Melvin, H., & Schukat, M. ( 2015) A QoS enabled multimedia WiFi access
point. Int. J. Network Mgmt, 25: 205– 222. doi: 10.1002/nem.1895.
ITU-T. (2016). Recommendation ITU-T-P.800.2 : Mean opinion score interpretation
and reporting.
Klaue, J., Rathke, B., & Wolisz, A. (2003). EvalVid-A Framework for Video Transmission
and Quality Evaluation. Retrieved from [Link]
fg112/Papers/[Link]
Lee, J., Ko, H., Suh, D., Jang, S., & Pack, S. (2017). Overload and failure management
in service function chaining. In 2017 IEEE Conference on Network Softwarization
(NetSoft) (pp. 1–5). IEEE. [Link]
Li, R., Li, Y., & Li, W. (2018). An Integrated Load-balancing Scheduling Algorithm for
Nginx-Based Web Application Clusters. Journal of Physics: Conference Series,
1060(1), 012078. [Link]
Nunes Astuto, B., Mendonça, M., Nam Nguyen, X., Obraczka, K., Turletti, T., Astuto
Nunes, B. A., Nguyen, X.-N. (2014). A Survey of Software-Defined Networking:
Past, Present, and Future of Programmable Networks, 16(3), 1617–1634.
[Link]
Peng, M., He, G., Wang, L., & Kai, C. (2019) “AP Selection Scheme Based on Achievable
Throughputs in SDN-Enabled WLANs,” in IEEE Access, vol. 7, pp. 4763-4772.
Shakir, M., Rehman, O. U., Abbas, Z., Masood, A., & Shahid, W. (2016). Evaluation of
Video Quality in Wireless Multimedia Sensor Networks. International Journal
of Electrical and Computer Engineering (IJECE), 6(1), 223–234. [Link]
org/10.11591/ijece.v6i1.7573
UIT-T. (2001) “G.1000 Calidad del servicio en las comunicaciones: marco y definiciones.,”
Ser. G Sist. Y MEDIOS Transm. Sist. Y REDES Digit. Calid. Serv. y Transm., pp.
58–60, 2001.
UIT-T. (2008). UIT-T P.910: “Métodos subjetivos de evaluación de la calidad vídeo para
aplicaciones multimedios”. Pp. 13. 2008.
1
Directora de proyecto de desarrollo, Universidad de Guayaquil, 593, Guayaquil, Ecuador.
2
Investigador secundario 1 desarrollo, Universidad de Guayaquil, 593, Guayaquil, Ecuador.
3
Investigador secundario 2 diseño, Universidad de Guayaquil, 593, Guayaquil, Ecuador.
4
Analista de datos estadísticos, Universidad de Guayaquil, 593, Guayaquil, Ecuador.
5
Estudiante 1 base de datos, Universidad de Guayaquil, 593, Guayaquil, Ecuador.
6
Estudiante 2 aplicativo móvil, Universidad de Guayaquil, 593, Guayaquil, Ecuador.
Pages: 29–40
Abstract: The use of the Smartphone is in sight and use of all, containing
applications called apps that allow to facilitate leisure activities, professional or
educational. In the field of Ecuadorian education there is still a lack of parental
involvement in the development of their children’s education where they often do
not copy or transcribe what has been dictated. For this reason it is intended to know
an easy-to-access mobile application that will be able to monitor school activities in
real time by providing support in quality educational service to society in general,
with research and scrum methods (software development). It was determined
a better control of tasks, assists and communication between the representative,
represented from 7 to 9 years and teacher in a meaningful way, the application
had a great acceptance among the participants, demonstrating that it is a tool that
contributes in the learning process.
Keywords: Smart-phone, mobile-applications, learning-strategies, platforms,
computer-education
1. Introducción
Existen dos escenarios de incorporación de nuevo conocimiento para las organizaciones:
1) la adaptación del nuevo conocimiento creado de manera informal por sus propios
actores y procesos, y 2) la adopción de un nuevo conocimiento que es ajeno a las
estructuras institucionales (Escudero Nahón, 2017). La tecnología tiene distintos
medios o formas para poder realizar el proceso de adaptación y adopción que permite
un mayor desarrollo en el servicio de educación de las instituciones que adoptan las
nuevas tecnologías como se ha realizado en las instituciones financieras que invierten
a plataformas tecnológicas (Rossi, 2018). La presencia de ello aporta a los estudiantes
para su desarrollo estudiantil, por lo tanto, es necesario mejorar el aprendizaje educativo
y una de las forma es la participación por medio de un aplicativo móvil que facilitara el
control de tareas, asistencia y las comunicaciones de actividades de la escuela obteniendo
estadísticas que se podrán relacionar con el rendimiento académico de los estudiantes
(Basantes et al., 2017).
Para conocer el impacto del uso de la aplicación se escogió una escuela de sur este de
Guayaquil de Ecuador “Ciudad de Ariel” donde utiliza una hoja elaborada que contempla
el listado de los estudiantes con sus fechas de asistencia que tiene que ser llenada primero
a mano y luego digitalizarla tomándose mucho tiempo para obtener los resultados.
Para poder sanear este problema se han creado diferentes mecanismos o estrategias,
las cuales no cubren todas las necesidades de mejorar la asistencia de los estudiantes.
Otro problema que se presenta con mucha frecuencia en esta institución es que los
estudiantes, especialmente de nivel de educación básica de Ecuador no transcriben
correctamente las tareas enviadas por el profesor, lo que conlleva a presentar molestias
tanto a los padres como profesores.
El instituto nacional de evaluación de Ecuador indica por medio de inec (Instituto
Nacional de Estadística y Censos) que “El objetivo de la EGB es desarrollar las
capacidades, habilidades, destrezas y competencias de los niños y adolescentes desde
los 5 años de edad en adelante, propiciando una participación universal de forma crítica,
responsable y solidaria en la vida de los ciudadanos, permitiendo la continuidad de la
trayectoria escolar de los estudiantes en el bachillerato” (Spencer, Restrepo, Javier, &
Reyna, s/f). “La EGB está compuesta por diez años de atención obligatoria en los que se
refuerzan, amplían y profundizan las capacidades y competencias adquiridas en la etapa
anterior, y se introducen las disciplinas básicas garantizando su diversidad cultural y
lingüística” (LOEI, 2011).
3. Método y metodología
Teniendo en cuenta que el objetivo general de este articulo es dar a conocer un aplicativo
móvil que aportara en el monitoreo de las tareas, asistencias y la mejora de la comunicación
entre padres de familia y profesores en beneficio del desarrollo académico del niño por
medio de 2 metodología, la primera que hace referencia a metodología de investigación
descriptiva y cuantitativa y la segunda de desarrollo SCRUM (Etimológicamente,
la palabra Scrum hace referencia a un término usado en el rugby. No se trata de una
abreviación o sigla, sino que significa gestión ágil de proyectos).
En la primera metodología se utilizó como instrumento de medición un cuestionario
virtual de forma Likert, que se remitió por correos electrónicos, redes sociales o físico.
Para determinar la muestra se contemplo con la colaboración de la autoridad del
instituto de 224 estudiantes mas 200 representantes de familia y 16 profesores en base
a la población de 33´372.493 estudiantes de educación general básica llamada EGB del
Ecuador como lo da a conocer el INEC.
En la segunda metodología de desarrollo del aplicativo móvil se aplicó las siguientes fases:
1. Fase 1: Levantamiento de información
2. Fase 2: Análisis en base a los resultados de la medición del instrumento del
cuestionario.
3.1. La arquitectura
Para el desarrollo de la aplicación se empleó la metodología de desarrollo Scrum, un
framework iterativo, rápido, eficaz, flexible y con altos índices de adaptabilidad al
cambio, modelo que se entregó el valor al cliente durante todo el proceso de desarrollo
del proyecto. La satisfacción de las necesidades del cliente es el enfoque primordial
de esta metodología a través del progreso continuo. Los instrumentos para obtener el
análisis de aceptación, usabilidad, rapidez y satisfacción del aplicativo móvil fue por
medio de encuestas después de usar el aplicativo.
CASO DE USO:
Actores Teacher
Descripción Se encarga de realizar la toma de asistencia de los estudiantes asignados en cada
curso al personal profesor realizado desde el dispositivo móvil.
Precondición Existan estudiantes y cursos asignados al usuario.
Flujo Básico 1. E
l usuario selecciona el curso, fecha y materia al que desea realizar el proceso de
toma de asistencia.
2. E
l aplicativo muestra un listado de los estudiantes asociados al curso seleccionado.
3. E l usuario ingresa los datos correspondientes a las asistencias de los estudiantes
y graba dicha información.
4. El aplicativo verifica si la información destinada para su almacenamiento es
nueva o modificada y según sea el caso la almacena.
Actores Teacher
Flujo Alterno En caso de que no esté asignado estudiantes al curso
seleccionado se indicara mediante un mensaje de error que se mostrara en la
pantalla.
En el caso de que sea nueva la información ingresada de las asistencias se
creara una nueva tabla en la cual se almacena información con su estado
correspondiente.
En el caso de que la información corresponda a una modificación de la misma se
procederá a actualizar en la tabla correspondiente.
Actores Teacher
Descripción Se encarga de realizar el envío de tareas de los estudiantes asignados en cada curso
al personal profesor realizado desde el dispositivo móvil.
Precondición Existan estudiantes y cursos asignados al usuario.
Flujo Básico 1. El usuario escoge la opción de Tareas.
2. El usuario selecciona el curso al que desea realizar el proceso de envío de tareas.
3. El sistema muestra un listado de los estudiantes asociados al curso seleccionado.
4. El usuario selecciona la casilla “todos”.
5. El usuario selecciona la opción “Envío”.
6. El sistema muestra un formulario con los datos relacionados a las tareas.
7. El usuario selecciona la opción “enviar”.
8. El sistema muestra un mensaje de éxito.
9. El sistema verifica si la información destinada para su almacenamiento es nueva
o modificada y según sea el caso la almacena.
Flujo Alterno En caso de que no esté asignado estudiantes al curso
seleccionado se indicara mediante un mensaje de error que se mostrara en la
pantalla.
En el caso de que sea nueva la información ingresada de las tareas el sistema
almacena la información con su estado correspondiente.
Hardware Descripción
Dispositivo Samsung Galaxy smart phone
Procesador ARM Mali-400 MP.
Memoria RAM 2 GB
Hardware Descripción
Cámara frontal de 2 megapixels
Tamaño 1080 x 1920 pixels, 4.99 pulgadas
Dimensiones 136.6 x 69.8 x 7.9 mm
Peso (g) 130g
Sistema Operativo Android
3.6. Procedimientos
Una vez terminado la fase de desarrollo se procedió a instalar en los teléfonos móviles
de los docentes, incluyendo Tablet con sistema operativo Android, días después con la
ayuda del director de la escuela se convoco a los padres de familias de 3 cursos para dar
a conocer del aplicativo móvil.
N= 420;Z= 1.96;σ = 0.5;e= 0.05; 420 × 0.5 2 × 1.96 2;n =0.05;2(400− 1) + 0.5 2 × 1.96 2
Que dan como resultado:
n= 200 representantes
Por lo tanto, se va a realizar la encuesta a 200 padres de familias de la institución
educativa “Ciudad de Ariel”.
Realizando la misma operación para determinar la muestra de la cantidad del personal
docente a la cual se procederá a realizar la encuesta tenemos los siguientes datos:
N= 17 ;Z= 1.96; σ = 0.5;e= 0.05;17 × 0.5 2 × 1.96 2;n =0.05 2 (17 − 1) + 0.5 2 × 1.96 2
Que dan como resultado:
n= 16 maestros
Por lo tanto, se va a realizar la encuesta a 16 maestros de la institución
educativa “Ciudad de Ariel”.
Entre los aspectos que se evaluaron están:
4. Resultados
Los resultados son obtenidos en base al objetivo planteado al inicio de este articulo.
Se desarrolló el aplicativo interactivo creando funcionalidades para el control de
tareas, asistencia y comunicación. De una muestra de 200 padres de familias que son
los representantes de los 224 estudiantes y 16 maestros que se encontraban como
profesores de la escuela donde en esta investigación y desarrollo permitió demostrar
que por medio del aplicativo los padres lograron monitorear las tareas de sus hijos,
mejorando la comunicación por medio de factores de usabilidad con el 80%, rapidez
89,9% y satisfacción del 70% de manipular el aplicativo móvil.
Estos datos fueron obtenidos en base a la encuesta a los profesores y padres de familias
quienes representan a sus hijos de la escuela Ariel, los usuarios se muestran satisfechos
con la interactividad del aplicativo. A través de la aplicación se automatizan los procesos
educativos de registro de asistencia y envío de tareas para el personal docente, debido a
que ya no es necesario la utilización de hojas de asistencias como lo han venido realizando
en la institución, si no que al hacer uso del módulo de asistencia que la aplicación provee
para los docentes este proceso se realiza más rápido y óptimo.
5. Discusión y Conclusiones
Dentro de la realización de la investigación se encontró 4 aplicaciones similares como
se muestra en la Fig 1 donde se podrá visualizar que el apps que esta desarrollado es
gratuita, que además contiene un módulo creado adicional que no contiene los demás
que es el “Modulo de Asistencia y envío de Tareas”.
A través de la implementación de la aplicación que contiene los módulos para el control
de asistencia, envío de tareas y la mejora de la comunicación que está diseñada para
dispositivos móviles con sistema operativo Android 4.0 o hasta 6.0, que cuenten con
conexiones inalámbricas, el personal docente va a poder realizar la asignación y cambio
de las asistencias de los alumnos que son asignados a cada docente, además de realizar
el envío de tareas a los representantes de los estudiantes, de esta forma permite una
comunicación más óptima entre el personal profesor y los representantes.
Referencias
Arias Chaves, M. (2006). InterSedes: Revista de las Sedes Regionales.
InterSedes: Revista de las Sedes Regionales, 6(10), 141–154. [Link]
org/10.1111/j.1471-0528.2011.03184.
Cristian Camilo Ordoñez1, Edier Anchico Silva1, Armando Ordóñez1, Cristian Méndez1,
Hugo Armando Ordoñez2.
[Link]@[Link],ediersilva@[Link],jaordonez@[Link],
[Link]@[Link], hugoordonez@[Link]
1
Intelligent Management Systems – Fundación Universitaria de Popayán, 190001, Popayán, Colombia.
2
Information Technology Research Group (GTI) Universidad del Cauca, 190001, Popayán, Colombia.
Pages: 41–52
the proposal obtains better results in the different evaluation metrics compared to
the state of the art search engine
Keywords: Recovery of judicial documents; Natural judicial language processing;
Automated summary.
1. Introducción
El sistema legal colombiano reconoce la importancia de la jurisprudencia, entendida
como un conjunto de sentencias dictadas por jueces, que pueden ser usadas como un
precedente legal y una fuente formal de ley. La ley 1437/2011 donde ordena a los jueces
que consideren sentencias anteriores del Consejo de Estado y del tribunal constitucional.
En ésta ley también creó la figura de la “extensión de la jurisprudencia” que ofrece al
ciudadano común la posibilidad de solicitar a las autoridades que tomen decisiones en
un caso basándose en casos anteriores y similares (Segura 2011).
En la práctica, la búsqueda de casos similares anteriores se debe realizar en dos fases: en
primer lugar, es necesario buscar declaraciones (juicios) en casos similares. La búsqueda
se puede hacer usando los motores de búsqueda disponibles en Colombia como lo son
buscador de la corte constitucional (Rama Judicial del Poder Publico 2011), buscador
de la rama judicial (Estado 2015). Estos motores de búsqueda utilizan palabras clave
y concordancia sintáctica, lo que puede resultar en un gran conjunto de resultados.
La segunda fase requiere encontrar el argumento central de cada oración que sirvió
de base para la decisión (Goytisolo 2009). La identificación de documentos requiere
expertos que conozcan el lenguaje técnico legal. En este sentido, aunque existen algunas
herramientas legales para ampliar el acceso a la justicia no existe aún una herramienta
que permita a los expertos generar automáticamente una búsqueda y resumen de estos
documentos en campo judicial.
Varios enfoques han abordado la cuestión del procesamiento de texto automático y
la búsqueda de sentencias (De Colla Furquim and De Lima 2012), (Raghuveer 2012),
(Lu, Qiang y Conrad, Jack G. y Al-Kofahi, Khalid y Keenan 2011), sin embargo, estos
enfoques no son aplicables al contexto legal particular del idioma colombiano y español.
Actualmente, se han desarrollado algunas herramientas tecnológicas cuya efectividad es
aún baja (Wyner, Mochales-palau, and Moens 2010) y existen en curso igualmente, algunas
aproximaciones orientadas al uso del procesamiento de lenguaje natural en ámbitos
legales (Venturi 2010). En este escenario, las tecnologías de recuperación de información
representan una buena aproximación inicial a la solución del problema. En este sentido el
presente trabajo presenta un aplicación basada en modelo de análisis semántico latente
(LSA) para la búsqueda, identificación e indexación de documentos judiciales, además de
resúmenes de documentos basado en TextRank, con esta aplicación se permite mejorar
los procesos judiciales en Colombia donde para entrenar los métodos se creó un dataset
con cerca de 28000 documentos extraídos de los buscadores tradicionales, los resultados
de esta aplicación denominada PRO-LAW muestra la satisfacción de los usuarios a la
hora de generar una jurisprudencia con los documentos generados, además de la mejora
de tiempo en la generación de la indexación de los documentos.
El resto del artículo está organizado de la siguiente manera: la Sección 2 presenta
una información relacionada con los trabajos relacionados. La Sección 3 presenta la
[Link]. Scraper
La plataforma utiliza una herramienta web para extraer documentos estructurados de
enlaces y descripciones de juicios jurisprudenciales publicados en el sitio web de la corte
constitucional de Colombia. Concretamente, este módulo fue desarrollado usando la
API de SCRAPY el cual entra a la página web de la corte suprema de justicia y extrae uno
a uno hasta extraer el último elemento documento, estos documentos son alojándolos
dentro de la base de datos.
(Ecuación 1)
documentos, donde una matriz contiene los números que representa cuantas
veces la palabra se repite en un documento (De Jorge-Botana 2010)
•• Paso 5: Una vez generado el corpus, este se normaliza utilizando el algoritmo
TF-IDF. Este algoritmo funciona buscando el número de veces que una palabra
ha ocurrido en el documento o una frecuencia de palabras en un documento.
Su dominio permanece local al documento. La frecuencia de documentos es la
fracción de documentos en los que se ha producido la palabra. Se calcula en base
a las estadísticas recopiladas de todo el corpus.
•• Paso 6: LSA recibe como parámetros el corpus normalizado(TF-IDF), el
diccionario y el número k (números de temas). El algoritmo empieza a entrenarse,
obteniendo 3 matrices que fueron creadas utilizando las descomposiciones de
vectores singulares(SVD) con una dimensionalidad k, este modelo se almacena
para poderse utilizar después. El modelo INDEX recibe como parámetros el corpus
normalizado(TF-IDF), el modelo LSA, el modelo diccionario, después indexa todos
los documentos para poder hacer consultas de similitud de coseno encontrando el
documento que más se acerque a la búsqueda realizada por el usuario.
4. Evaluación de sistema.
Esta sección describe y determina la calidad de los resultados de la evaluación del
buscador propuesto, a comparación de los buscadores de la corte suprema de justicia,
esta evaluación se divide en 2 pasos donde a) Evaluación interna de los resultados
obtenidos, b) Satisfacción del usuario frente a los resultados obtenidos en las búsquedas.
A.) Evaluación Interna
En esta fase los resultados obtenidos por parte del buscador PRO-LAW son comparados
con los resultados de la evaluación del buscador de la corte constitucional, para esta
evaluación se contó con 46 evaluadores expertos divididos entre estudiantes de
derecho, profesionales del derecho, los perfiles de los evaluadores se pueden observar
en la Tabla 1
Universidad Profesional Estudiante
Universidad Mariana 6 4
Universidad Cooperativa 7 3
Total 30 16
(P), Recall (R), Medida F (MF). La Figura 2 presenta los resultados determinados en
las diferentes métricas por el buscador propuesto PRO-LAW en la búsqueda de 3 casos
dados por expertos en leyes. Los resultados de la evaluación de P, R, MF en la búsqueda
de los casos se describen a continuación.
La Figura 2 presenta el nivel de precisión generada por el buscador propuesto en
la búsqueda de los diferentes casos. Los resultados de P para el caso de búsqueda
número 1 demuestran que el 78% de los evaluadores aseguran que PRO-LAW genera
mejor precisión a la hora de encontrar documentos para solucionar el caso 1 de igual
manera para el caso 2 y 3 el buscador genera búsquedas más precisas con un 83% y 91%
respectivamente en comparación al buscador de la corte donde el 22% aprueba precisión
en el caso 1, 17% para el caso número 2 y 9% para el caso número 3.
Referencias
Barrios, Federico, Federico López, Luis Argerich, and Rosa Wachenchauzer. 2016.
“Variations of the Similarity Function of TextRank for Automated Summarization.”
Universidad de Buenos Aires 1–8.
Boella, Guido et al. 2016. “Eunomos, a Legal Document and Knowledge Management
System for the Web to Provide Relevant, Reliable and up-to-Date Information on
the Law.” Artificial Intelligence and Law 24(3):245–83. Retrieved ([Link]
org/10.1007/s10506-016-9184-3).
Chou, Shihchieh and Tai-Ping Hsing. 2010. “Text Mining Technique for Chinese Written
Judgment of Criminal Case.” Pp. 113–25 in Intellgence and Security Informatics,
edited by H. Chen et al. Berlin, Heidelberg: Springer Berlin Heidelberg.
De Colla Furquim, Luis Otávio and Vera Lúcia Strube De Lima. 2012. “Clustering
and Categorization of Brazilian Portuguese Legal Documents.” Pp. 272–83 in
Computational Processing of the Portuguese Language, vol. 7243, edited by F.
Caseli, Helena and Villavicencio, Aline and Teixeira, António and Perdigão. Springer
Berlin Heidelberg.
Constitucional, Corte. 2015. “Corte Contitucional.” Ministerio de Justicia y Del Derecho
Colombia. Retrieved ([Link]
Cruz, Fermín, José A. Troyano, and Fernando Enríquez. 2006. “Supervised TextRank.”
Pp. 632–39 in Advances in Natural Language Processing, edited by T. Salakoski, F.
Ginter, S. Pyysalo, and T. Pahikkala. Berlin, Heidelberg: Springer Berlin Heidelberg.
Estado, Consejo de. 2015. “Consejo de Estado.” Consulta de Jurisprudencia. Retrieved
([Link]
Goytisolo, J. V. 2009. “El Razonamiento Judicial.” Anales de La Real Academia de
Jurisprudencia y Legislación 39tn editi(Dykinson, Ed.).
De Jorge-Botana, Guillermo. 2010. “La Técnica Del Análisis de La Semántica Latente
(LSA/LSI) Como Modelo Informático de La Comprensión Del Texto y El Discurso.”
UNIVERSIDAD AUTONOMA DE MADRID 1–447.
Kherwa, Ms Pooja and Poonam Bansal. 2017. “Latent Semantic Analysis : An Approach to
U Nderstand Semantic of Text.” 2017 International Conference on Current Trends
in Computer, Electrical, Electronics and Communication (CTCEEC) 870–74.
Kim, Han Kyul, Hyunjoong Kim, and Sungzoon Cho. 2017. “Neurocomputing Bag-of-
Concepts : Comprehending Document Representation through Clustering Words
in Distributed Representation.” Neurocomputing 266:336–52.
Lu, Qiang y Conrad, Jack G. y Al-Kofahi, Khalid y Keenan, William. 2011. “Agrupación
de Documentos Legales Con Segmentación de Tema Incorporada.” Pp. 383--392 in
Actas de la 20a Conferencia Internacional ACM sobre Gestión de la Información
y el Conocimiento.
Ma, Y., P. Zhang, and J. Ma. 2018. “An Ontology Driven Knowledge Block Summarization
Approach for Chinese Judgment Document Classification.” IEEE Access 6:71327–38.
Manning, Christopher D., Prabhakar Raghavan, and Hinrich Schütze. 2008.
“Introduction to Information Retrieval.” Journal of the American Society for
Information Science and Technology 1:496.
Papastefanatos, George. 2016. “Towards Automatic Structuring and Semantic Indexing
of Legal Documents.” in in Proc. PCI, Patras, Greece.
Raghuveer, avi Kumar V. y K. 2012. “Agrupación de Documentos Legales Mediante La
Asignación de Dirichlet Latente.” Revista Internacional de Sistemas de Información
Aplicados 2(6):27–33.
1
Unidad Académica de Tecnologías de la Información y la Comunicación Universidad Católica de Cuenca,
Vargas Machuca 6-50, 010107, Cuenca, Ecuador.
2
Departamento de Lenguajes y Sistemas Informáticos Universidad de Alicante, 03690, San Vicente del
Raspeig, España.
3
Universitat de les Illes Balears, Departament de Matemàtiques i Informàtica, carretera de Valldemossa km
7.5, 07122 Palma de Mallorca, España.
Pages: 53–68
performed with the online tools Examinator, AccessMonitor, TAW and TENON. Of
the 220 web pages analyzed, none comply with NTE INEN-ISO/IEC 40500:2012.
Universities must undertake web accessibility projects for regulatory compliance.
Keywords: Web accessibility; Disability; Education; Educational inclusion; NTE
INEN ISO/IEC 40500:2012; WCAG 2.0.
1. Introducción
La accesibilidad web significa que las personas con algún tipo de discapacidad puedan
hacer uso de la Web en las mismas condiciones que el resto de las personas. Al hablar
de accesibilidad web se está haciendo referencia a un diseño que permita a personas con
discapacidad percibir, entender e interactuar con la página o sitio que está navegando.
La accesibilidad web también beneficia a otras personas, incluyendo personas de edad
avanzada que han visto mermadas sus habilidades a consecuencia de los años. Una
web accesible proporciona un acceso equitativo con igualdad de oportunidades a las
personas con discapacidad para participar más activamente en la sociedad (World Wide
Web Consortium, 2019).
La ISO/IEC 40500:2012 (International Organization for Standardization, 2012) es igual
a las Pautas de Accesibilidad para el Contenido Web (WCAG) 2.0, las cuales cubren
una amplia gama de recomendaciones para hacer más accesible el contenido de la Web.
Seguir estas directrices hará que el contenido sea accesible a personas con discapacidades,
incluyendo ceguera y baja visión, sordera y pérdida auditiva, discapacidades de
aprendizaje, limitaciones cognitivas, limitaciones de movimiento, discapacidades del
habla, fotosensibilidad y combinaciones de éstas. Seguir estas pautas también hará que
el contenido de su sitio web sea más usable para los usuarios en general. Los sitios, las
tecnologías o las herramientas que no cumplan con estándares pueden crear barreras
que excluyen a las personas del uso de la Web.
Ecuador, al igual que otros países, ha adoptado la norma ISO/IEC 40500:2012 (Servicio
Ecuatoriano de Normalización, 2014). Para dar seguimiento al cumplimiento obligatorio
en el Ecuador de la norma NTE INEN-ISO/IEC 40500:2012, se crea el reglamento
técnico ecuatoriano RTE INEN 288 “Accesibilidad para el contenido web” que entró
en vigor el 8 de agosto de 2016 (Servicio Ecuatoriano de Normalización, 2016). Este
reglamento se aplica a los contenidos publicados en los sitios web del sector público
y privado que presten servicios públicos. En su segunda transitoria, este reglamento
establece que, hasta el 8 de agosto de 2020, todos los sitios web ecuatorianos que
presten un servicio público deben ser accesibles WCAG 2.0 nivel AA. Conforme la
WCAG 2.0 existen tres niveles de conformidad y 61 criterios de éxito que las páginas
web deben cumplir A (25 criterios de éxito), AA (13 criterios de éxito) y AAA (23 criterios
de éxito). Las instituciones públicas y privadas de la República del Ecuador junto con los
desarrolladores web deben acoger e implementar el reglamento para permitir un acceso
universal a la Web. Además, hasta el momento no se ha actualizado la normativa en
Ecuador, pero es posible que lo haga en el futuro con las WCAG 2.1 (World Wide Web
Consortium, 2018a).
La educación está en un proceso evolutivo que va ajustándose a leyes, reglamentos y
nuevas exigencias en la enseñanza-aprendizaje. Un aspecto clave es conseguir la inclusión
2. Conceptos relacionados
•• Nivel AA: para lograr la conformidad con el nivel AA, la página web satisface
todos los criterios de éxito de nivel A y nivel AA, o se proporciona una versión
alternativa que cumple con el nivel AA.
•• Nivel AAA: para lograr la conformidad con el nivel AAA, la página web satisface
todos los criterios de éxito de nivel A, nivel AA y nivel AAA, o se proporciona una
versión alternativa que cumple con el nivel AAA.
En la Figura 1, se presentan los criterios de éxito, con sus niveles de conformidad por
cada uno de los principios de la WCAG 2.0.
•• Transitoria Primera: los propietarios de los sitios web a los que se aplica
este reglamento técnico tendrán un plazo de 2 años para adecuar sus sitios web
existentes al momento de entrar en vigencia el reglamento de acuerdo al nivel
de conformidad A de la norma NTE INEN vigente. El 8 de agosto de 2018, todos
los sitios web ecuatorianos que presten un servicio público deben ser accesibles
WCAG 2.0 nivel A.
•• Transitoria Segunda: los propietarios de los sitios web a los que se aplica
este reglamento técnico tendrán un plazo de 4 años para adecuar sus sitios web
existentes al momento de entrar en vigencia el reglamento de acuerdo al nivel
de conformidad AA. de la norma INEN vigente. El 8 de agosto de 2020, todos
los sitios web ecuatorianos que presten un servicio público deben ser accesibles
WCAG 2.0 nivel AA.
Además, el Reglamento Técnico Ecuatoriano RTE INEN 288 “Accesibilidad
para el contenido web” (Servicio Ecuatoriano de Normalización, 2016) emite un
Régimen de Sanciones: el propietario del sitio web que incumpla con lo establecido
en este reglamento técnico recibirá las sanciones previstas en la Ley No. 2007-76
del Sistema Ecuatoriano de la Calidad, Ley Orgánica de Comunicación y demás
leyes vigentes.
2.4.1. Examinator
Examinator1 es un servicio en línea para evaluar de modo automático la accesibilidad de
una página web, usando como referencia algunas técnicas recomendadas por las WCAG
2.0. Adjudica una puntuación entre 1 y 10 como un indicador rápido de la accesibilidad
de las páginas y proporciona un informe detallado de las pruebas realizadas.
2.4.2. AccessMonitor
AccessMonitor2 es un validador automático que comprueba la aplicación de
las WCAG 2.0 en el contenido HTML de un sitio web; se puede utilizar desde
cualquier dispositivo que ejecuta un navegador web es totalmente universal.
AccessMonitor produce automáticamente un informe cualitativo para cada página
que se le envía.
1
Examinator: Web accessibility evaluation. Retrieved from [Link]
2
AccessMonitor: Nota técnica del validador AccessMonitor. Obtenido de [Link]
[Link]/accessmonitor/nota_tecnica.html
2.4.3. TAW
TAW3 es una herramienta automática en línea para analizar la accesibilidad de sitios
web. El objetivo de TAW es comprobar el nivel de accesibilidad alcanzado en el diseño
y desarrollo de páginas web con el fin de permitir el acceso a todas las personas
independientemente de sus características diferenciadoras; está destinada tanto a
usuarios sin experiencia que quieren conocer el grado de accesibilidad de su sitio web
como para administradores de sitios web, desarrolladores, diseñadores de páginas
web, etc.
2.4.4. TENON
TENON4 es una herramienta automática en línea que tiene una metodología de pruebas
rigurosa, precisa y exhaustiva, ofreciendo una eficiencia sin precedentes. Su objetivo no
es sólo encontrar problemas de accesibilidad, sino ayudarle a que su sistema cumpla con
las normas lo antes posible.
3. Trabajos relacionados
En otra investigación en el año 2016 (Acosta-Vargas, Luján-Mora, & Salvador-Ullauri,
2016), se analizó el nivel de cumplimiento de las directrices de accesibilidad en los
portales web de 10 universidades del Ecuador (3 Categoría A y 7 Categoría B) utilizando
las herramientas en línea TAW y Examinator. De las páginas web analizadas, los autores
determinaron que ninguna cumple con las pautas de accesibilidad requeridas, por lo
tanto, las páginas no son accesibles.
En una investigación realizada en 2019 (Rodríguez, Antepara, & Braganza, 2019), se
evaluó la accesibilidad de los sitios web de la Universidad de Guayaquil, Universidad
Agraria del Ecuador, Escuela Superior Politécnica del Litoral (ESPOL) y Universidad
de Artes (UARTES), todas de naturaleza pública de la ciudad de Guayaquil. Los autores
toman como muestra cinco páginas de cada sitio web y 38 criterios que cumplen
con los niveles de conformidad A y AA. Ellos concluyeron que los sitios web de las
instituciones públicas de Educación Superior en Guayaquil tienen, en promedio, un
nivel deficiente de accesibilidad en la aplicación del estándar NTE INEN ISO / IEC
40500:2012.
Nuestra investigación, a diferencia de las anteriores, presenta el análisis de
accesibilidad de los 55 portales web de las universidades del Ecuador categorizadas
(8 categoría A, 28 categoría B y 19 categoría C) por el Consejo de Aseguramiento de la
Calidad de la Educación Superior (CACES) (Consejo del Aseguramiento de la Calidad
de la Educación Superior, 2018). Además, esta investigación realiza el análisis de
accesibilidad web luego de haber entrado en vigor el Reglamento Técnico Ecuatoriano
RTE INEN 288 “Accesibilidad para el contenido web” y haber cumplido el plazo de
su primera transitoria.
3
TAW: Web accessibility test. Obtenido de [Link]
4
TENON: Services. Obtenido de [Link]
4. Metodología
La metodología aplicada para evaluar la accesibilidad de los portales web se compone
de cuatro pasos:
1. Selección de los portales web de las universidades del Ecuador: con
información publicada por el CACES (Consejo del Aseguramiento de la Calidad
de la Educación Superior, 2018), encargada de ejercer la rectoría política para
la evaluación, acreditación y el aseguramiento de la calidad de las Instituciones
de Educación Superior en Ecuador, sus programas y carreras. Esta investigación
realiza la evaluación de los 55 portales web de las universidades acreditadas por
el CACES, tomando como muestra 4 páginas web de cada portal.
2. Evaluación de las páginas de inicio: para determinar los errores de
accesibilidad de las 55 páginas de inicio se utilizaron las herramientas en línea
Examinator y AccessMonitor. Las páginas de inicio son la primera impresión y
la carta de presentación que se le da al usuario que visita un sitio web. Además,
estas páginas permiten a los usuarios desplazarse entre los demás sitios de los
portales web.
3. Evaluación de los portales web: para determinar los errores de accesibilidad
de las 220 páginas web seleccionadas de los portales web se utilizaron las
herramientas en línea TAW y TENON.
4. Nivel de cumplimiento y propuesta de solución: para establecer el nivel
de cumplimiento se verificó los iconos que certifiquen la accesibilidad de los
sitios por la World Wide Web Consortium (W3C) en HTML, CSS y sus niveles
de conformidad A, AA y AAA. A partir de los resultados obtenidos se corrobora
el nivel de cumplimiento de la norma NTE INEN-ISO/IEC 40500:2012 con un
nivel de conformidad AA.
5. Resultados
Tabla 2 – Promedio de errores y advertencias de los portales web de las universidades y escuelas
politécnicas del Ecuador utilizando TAW y TENON.
La media de errores en los portales web es calculada del promedio de errores / página,
teniendo un promedio de 151.06 de los datos obtenidos de las herramientas online
TAW y TENON. En la Figura 3 se muestra el porcentaje de errores obtenidos por cada
principio y páginas web analizadas.
Con la evaluación de TAW se determina que el 79 % son advertencias que se deben revisar
en el diseño y contenido de las páginas web, el 16 % son problemas que se deben corregir
y el 5 % son puntos no verificados que requieren de un análisis manual completo para
su cumplimiento. Utilizando [Link] que analiza una variedad de factores para
determinar qué sistemas gestores de contenidos (CMS, del inglés Content Management
Systems) está utilizando un sitio web. Se pudo determinar que el 80 % de los portales
web están realizados en WordPress (22), Joomla (11), Drupal (5), Liferay (3), Umbraco
(1), SharePoint (1), DNN (1) y el 20 % en otros (11).
sitios por la W3C en HTML, CSS o sus niveles de conformidad A, AA y AAA. De acuerdo
con los resultados obtenidos, se determina que es necesario corregir errores en todos los
portales web analizados de las universidades y escuelas politécnicas del Ecuador. Por lo
tanto, es evidente su incumplimiento con la segunda transitoria del reglamento técnico
ecuatoriano RTE INEN 288, que establece que todos los sitios web ecuatorianos que
proporcionan un servicio público deben ser accesibles WCAG 2.0 nivel AA hasta el 8 de
agosto de 2020.
6. Conclusiones
Para lograr la conformidad con el nivel AA, las páginas web deben satisfacer todos
los criterios de éxito de nivel A y nivel AA. Las páginas web analizadas de las
universidades y escuelas politécnicas del Ecuador tienen errores en los principios
Perceptible (contenido no textual, información y relaciones), Operable (tiempo
ajustable, titulado de páginas, propósito de los enlaces), Comprensible (idioma
de la página, al recibir entradas – al introducir datos, etiquetas o instrucciones) y
Robusto (procesamiento, nombre, función y valor). Se requiere corregir errores en
todos los portales web. Según, López, Pascual, Masip, Granollers y Cardet (2011),
todos los CMS pueden ser configurados para que sean accesibles. También, se puede
inferir que las páginas web de las universidades y escuelas politécnicas no fueron
diseñadas con una visión de accesibilidad web. La apreciación anterior da una
primera impresión de la estructura y diseño de los sitios web, considerando que los
resultados son preliminares; se deben realizar pruebas con expertos para que los
resultados sean fiables y completos.
Según estadísticas de la Organización Mundial de la Salud (Organización Mundial de la
Salud, 2011, pág. 5) y el CONADIS (Consejo Nacional para la Igualdad de Discapacidades,
2019) existe un incremento progresivo de personas con discapacidad. La Constitución
del Ecuador (Asamblea Nacional, 2018) en la sección quinta educación Art. 26 estipula
que la “educación es un derecho de las personas a lo largo de su vida y un deber ineludible
e inexcusable del Estado. Constituye un área prioritaria de la política pública y de la
inversión estatal, garantía de la igualdad e inclusión social y condición indispensable
para el buen vivir”.
Los problemas de accesibilidad web encontrados vulneran los derechos legales de las
personas con discapacidad, estas pueden demandar contra los sitios web según las leyes y
regulaciones vigentes en Ecuador. El desafío de las universidades y escuelas politécnicas
es emprender proyectos de accesibilidad para el cumplimiento de la norma NTE INEN-
ISO/IEC 40500:2012 y la segunda transitoria del reglamento técnico ecuatoriano
RTE INEN 288 “Accesibilidad para el contenido web” y demás leyes vigentes de
inclusión educativa.
Referencias
Acosta-Vargas, P., Luján-Mora, S., & Salvador-Ullauri, L. (2016). Evaluación de la
Accesibilidad de las páginas web de las universidades ecuatorianas. Revista de
Congreso de Ciencia y Tecnología, 11, 181–187.
World Wide Web Consortium. (2018b). Web Content Accessibility Guidelines (WCAG)
Overview. Obtenido de [Link]
World Wide Web Consortium. (2019). Introduction to Web Accessibility. Obtenido de
[Link]
1
Universidad Yachay Tech, SDAS-Group, 100115, Urcuquí, Ecuador.
2
Instituto Tecnológico Metropolitano, 050042, Medellín, Colombia.
Pages: 69–80
Abstract: Urban public transport in the city of Medellín (Col) has had a positive
development, however insufficient due to the increase in population density. This
paper presents a comparative analysis of the Tabu Search algorithm (TS) and the
Particle Swarm Optimization algorithm (PSO). It proposes an optimization of the
urban public transport service in the northern area of the city, using variables from
different organizational units (vehicle mechanics, human resources management,
environmental and operational management). The algorithms achieved convergence
with the objective of maximizing profitability regarding the use of buses during
the operating day. A route planning proposal was obtained that allows a user’s
increment of 25%, improve service times, generating sustainable development for
the environment and the transport company
Keywords: Urban public transport: Route optimization; Particle swarm
optimization; Tabu search optimization; Bus scheduling problem.
1. Introducción
La rápida urbanización en los países en desarrollo ha llevado a un aumento sin precedentes
en la demanda de servicios de movilidad, que a su vez ha ejercido una enorme presión
para generar soluciones de infraestructura y de servicios de transporte público (Guzmán
& Oviedo, 2018). Este creciente interés en el desarrollo de soluciones para un transporte
público eficiente, implica nuevas oportunidades y desafíos para explorar la interacción
entre la estructura y la dinámica del sistema, siendo fundamental para optimizar el
servicio de transporte público.
Actualmente, el transporte público ocupa un lugar destacado en las recientes agendas
de desarrollo y políticas urbanas en todo el mundo (Borck, 2019), convirtiéndose en
el principal mecanismo para articular estructuras urbanas y proporcionar acceso al
territorio (Guzmán & Oviedo, 2018). Los efectos ambientales a menudo figuran como
una de los principales desafíos (Borck, 2019; Noland & Lem, 2002), sin desconocer los
efectos sobre el tráfico vehicular y la generación de otras externalidades derivadas del
servicio como ruido, introspección visual, afectaciones de espacios públicos, entre otros.
Particularmente, en la ciudad de Medellín, la oferta de servicios eficientes de transporte
público, ha sido lenta y no ha logrado satisfacer completamente las necesidades de
movilidad de la población urbana debido a varias restricciones de índole geográfico,
además de fiscales e institucionales. Para la Ciudad, el transporte público ha
experimentado un proceso de transformación centrado en el desarrollo sostenible y
ambiental durante los últimos años, que se entiende como el desarrollo que satisface
las necesidades del presente sin comprometer la capacidad de las generaciones futuras
(Möller, 2003). Sin embargo, sigue siendo necesario abordar actividades de planeación
de forma operativa que permita responder a las variaciones de tiempo o como respuesta
a los cambios permanentes producidos en el servicio.
Diversas soluciones emanadas de políticas públicas y de prestadores de servicios
han intentado ofrecer algunas soluciones para satisfacer un servicio eficiente de
transporte, mitigando la congestión, los efectos ambientales entre otras externalidades
ocasionadas, ofreciendo mejor infraestructura (medición en rampas, semáforos
‘inteligentes’, extensión de carriles, sistemas BRT – Sistema Metro), y abordando
otras soluciones operativas como la flexibilidad o el ajuste de rutas y paradas durante
los períodos pico, o proponiendo cambios en la programación de rutas que permitan
mayor acceso a la población.
La literatura ha identificado diferentes actividades de planeación a corto plazo
(planificación operativa), mediano y largo plazo (táctica y estratégica) para el diseño
eficiente de un sistema de transporte público (Desaulniers & Hickman, 2007).
Actividades estratégicas-tácticas como el estudio de la demanda desde los diferentes
2. Materiales y métodos
Donde, t y t+1 indican dos iteraciones sucesivas del algoritmo, Vi representa la velocidad
para la partícula i, Xi es la posición de la partícula, g* representa la mejor posición
entre todas la partículas y X*i es la mejor posición alcanzada por la partícula i. θ, α y β
son coeficientes de inercia, y de comportamiento grupal e individual respectivamente.
Finalmente, ∊1 y ∊2 son variables aleatorias uniformemente distribuidas que toman
valores entre 0 y 1.
VC = DR ⁄ tV
fL = Dem ⁄ CO
int_t = pO ⁄ fR
vehr = tT ⁄ int_t
donde VC: velocidad comercial, DR: Distancia de la ruta, tV: tiempo de viaje, fL:
frecuencia de línea, Dem: demanda[pasajeros/(hora)], CO: capacidad ofrecida
[pasajeros/(vehiculo)], int_t:intérvalo de tiempo [min], pO: periodo de operación [min],
fR: frecuencia requerida [(vehiculo)/(hora)], vehr: vehiculo requerido, tT: tiempo total
[min].
En los históricos de información, existe una demanda para cada tipo de día, para
cada intervalo de tiempo, de la misma manera que la ocupación de cada parada que
conforma la definición de red de la ruta. Estas funciones como datos, permiten generar
información sobre tiempos de viaje y demoras en paradas dentro de un servicio asociado
con la ruta C6-004. Los datos fijos se tienen en cuenta, como la distancia punto a
punto de la ruta, el tiempo de viaje por cada punto de acuerdo con la planificación
actual y con la información del tiempo, y la distancia se puede determinar para cada
punto el viaje planificado y como consecuencia la velocidad. Además, debe tenerse en
cuenta que la ruta se programa en ambas direcciones, dado que las distancias y los
tiempos varían para cada uno de ellos. En la Tabla 1,2 se detalla la información fija de
la planificación actual.
Para las variables utilizadas en los algoritmos, se cuentan los tiempos de permanencia
del vehículo en cada parada, la ocupación, la frecuencia, el retraso o el avance según el
caso y, según esta información, el tiempo muerto para cada servicio se calcula utilizando
la ecuación ∑ tm = tmp1 + tmp2 + ... + tmp4. La figura 3, muestra la ruta comercial para
la ruta C6-004 Reserva del Seminario- Estación de Exposiciones del METRO, donde
cada marca de posición amarilla representa cada una de las paradas que el vehículo debe
realizar para la dirección 1 con la Estación de Exposiciones de destino.
Al categorizar las variables, se observa que, para la optimización del servicio comercial con
respecto a la favorabilidad para los usuarios, los conductores y la empresa, el factor más
afectado son los tiempos de inactividad que realiza un autobús durante la prestación del
servicio. Esta situación genera desacuerdo entre los actores involucrados durante los viajes.
La función objetivo minimiza el tiempo de inactividad en cada parada, por lo que en este
caso permite una mayor flexibilidad en el tiempo total de viaje, maximizando de manera
3. Resultados y discusión
En la actualidad, se realizan paradas obligatorias en cada estación, que tiene un aumento
en el tiempo de viaje y las frecuencias iteradas con datos históricos desde el 1 de enero
de 2016 hasta el 31 de mayo de 2016. La variable de ocupación se mide con respecto a
cada parada y el tiempo de estadía en el autobús. En el escenario propuesto, se tienen en
cuenta las mismas variables, pero con la diferencia de restricción de permanecer sólo en
una determinada parada si hay ascenso o descenso de pasajeros, de lo contrario el vehículo
no disminuirá la velocidad. El algoritmo TS itera más rápidamente y muestra que cambiar
la restricción de permanecer en el escenario propuesto aumentando la velocidad, haciendo
que realice la parada sólo donde hay ascenso o disminución de usuarios, disminuya el tiempo
de viaje en 7 minutos. Esto representa que la ruta pasa de estar planificada con un tiempo
de viaje de 1800 segundos (que representa 30 minutos por dirección) a 1620 segundos (que
representa 23 minutos por dirección aproximadamente) en el tráfico vehicular regular. La
diferencia con el algoritmo PSO no es significativamente mayor, dado que el algoritmo PSO
en el segundo escenario propone un ahorro en el tiempo de viaje de 8 minutos y medio.
En consecuencia, significa que, al llevar a cabo el plan de servicio operativo con el tiempo
de viaje propuesto de 23 minutos, significa ahorrar 1.5 conductores con una frecuencia de
2.37 minutos en las horas pico, garantizando la cobertura de la demanda actual del servicio
para estos momentos del día. En la Figura 4 se muestra la relación de frecuencia de viajes
respecto al número de pasajes considerado en el proceso de optimización.
4. Conclusiones
En este artículo se presenta un enfoque para la optimización de parada de buses
y su programación. Para su desarrollo se testearon los algoritmos TS y PSO
independientemente, obteniendo resultados similares pero superior para el TS con las
funciones VC, int_t, vehR, fL. Ambos algoritmos satisfacen la función objetivo de manera
óptima al proponer menos tiempo de viaje reduciendo las frecuencias entre vehículos
pero aumentando el número de pasajeros y ejecutando mayor número de viajes. Basados
en los resultados obtenidos, se proporciona una propuesta de planificación para la línea
C6-004. En las estaciones de Reserva del Seminario y Exibiciones durante las horas
pico, el autobús sólo realizará paradas donde haya usuarios, minimizando el tiempo de
viaje para el itinerario con la estación de Exposiciones de destino desde el Metro a 23
minutos y con destino a Reserva del Seminario a 25 minutos, generando una frecuencia
de 2:37 minutos entre cada vehículo en las horas pico. Para los días laborales se realiza la
tabla de Gantt consiguiendo ahorrar 1.5 conductores. Situación que genera un aumento
significativo en los usuarios, con lo que se infiere que con esta mejora en el servicio podría
existir un mayor atractivo para usuarios frecuentes. Finalmente, para trabajos futuros,
sería factible analizar los resultados obtenidos con otras variables como el consumo de
combustible, la tasa de fallas, el número de horas extras por conductor, entre otras.
Referencias
Arbex, R., & da Cunha, C. (2015). Efficient transit network design and frequencies
setting multi-objective optimization by alternating objective genetic algorithm.
Transportation Research Part B: Methodological, 81, 355–376.
Borck, R. (2019). Public transport and urban pollution. Regional Science and Urban
Economics. Vol 77, pp. 356–366
Ceder, A., & Wilson, N. (1986). Bus network design. Transportation Research Part B:
Methodological, 20(4), 331–344.
Desaulniers, G., & Hickman, M. (2007). Public transit. Handbooks in operations
research and management science, 14, 69–127.
Eberhart, R., & Kennedy, J. (1995). A new optimizer using particle swarm theory.
In MHS’95. Proceedings of the Sixth International Symposium on Micro Machine
and Human Science (pp. 39-43). Ieee.
Farahani, R., Miandoabchi, E., Szeto, W., & Rashidi, H. (2013). A review of urban
transportation network design problems. European Journal of Operational
Research, 229(2), 281–302.
Giesen, R., Martínez, H., Mauttone, A., & Urquhart, M. (2016). A method for solving
the multi-objective transit frequency optimization problem. Journal of Advanced
Transportation, 50(8), 2323–2337.
Glover F., & Marti R. (2006) Tabu Search. In: Alba E., Martí R. (eds) Metaheuristic
Procedures for Training Neutral Networks. Operations Research/Computer Science
Interfaces Series, 36, 53–69.
Guzman, L., & Oviedo, D. (2018). Accessibility, affordability and equity: Assessing ‘pro-
poor’public transport subsidies in Bogotá. Transport Policy, 68, 37–51.
Jaramillo-Álvarez, P., González-Calderón, C., & González-Calderón, G. (2013). Route
optimization of urban public transportation. Dyna, 80(180), 41–49.
Jha, S., Jha, J., & Tiwari, M. (2019). A multi-objective meta-heuristic approach for transit
network design and frequency setting problem in a bus transit system. Computers
& Industrial Engineering, 130, 166–186.
Marini, F., & Walczak, B. (2015). Particle swarm optimization (PSO). A
tutorial. Chemometrics and Intelligent Laboratory Systems, 149, 153–165.
Martínez, H., Mauttone, A., & Urquhart, M. (2014). Frequency optimization in public
transportation systems: Formulation and metaheuristic approach. European
Journal of Operational Research, 236(1), 27–36. [Link]
ejor.2013.11.007
Möller, R. (2003). Movilidad de personas, transporte urbano y desarrollo sostenible
en Santiago de Cali, Colombia (Doctoral dissertation, Verlag nicht ermittelbar),
p. 368.
Nikolić, M., & Teodorović, D. (2013). Empirical study of the Bee Colony Optimization
(BCO) algorithm. Expert Systems with Applications, 40(11), 4609–4620.
Nikolić, M., & Teodorović, D. (2014). A simultaneous transit network design and
frequency setting: Computing with bees. Expert Systems with Applications, 41(16),
7200–7209.
Noland, R., & Lem, L. (2002) Review of the Evidence for Induced Travel and Changes
in Transportation and Environmental Policy in the US and the UK, Transportation
Research Part D: Transport and Environment, vol.7, pp. 1-26.
Riojas, A., & Álvarez M. (2009). Búsqueda tabu: conceptos, algoritmo y aplicación al
problema de las N – reinas. Revista de ingeniería de sistemas e informática. 6 (2),
27–38.
Ruisanchez F., dell’Olio L., & Ibeas A. (2012). Design of a Tabu Search algorithm for
assigning optimal bus sizes and frequencies in urban transport services,” Journal of
Advanced Transportation. 46 (4), 366–377.
Sicilia, J., Escuín, D., Royo, B., Larrodé, E., & Medrano, J. (2014). A hybrid algoritm
for solving the general vehicle routing problem in the case of the urban freight
distribution. In Computer-based Modelling and Optimization in Transportation(pp.
463-475). Springer, Cham.
Torabi, M., & Salari, M. (2019). Limited-stop bus service: A strategy to reduce the unused
capacity of a transit network. Swarm and evolutionary computation, 44, 972–986.
Wang, H. (2017). Routing and scheduling for a last-mile transportation
system. Transportation Science, 53(1), 131–147.
1
Escuela Superior Politecnica del Litoral, Guayas 09015863, Guayaquil, Ecuador
Pages: 81–94
1. Introduction
Nowadays, the internet traffic has new trends, mainly generated by mobile devices
connected to wireless and cellular networks. The study from Cisco Systems, forecast and
trends (CISCO, 2017), predicts that by 2022 the traffic from wireless and mobile device
will account 71 percent of total IP traffic, and the smart mobile traffic will represent 44%.
The internet Stats & Facts for 2019 (Hosting Facts, 2018), show that China is the country
with the greatest number of internet users (802 million), and 98 percent of these users
are mobile. There are near to 4 billion global mobile internet users and 90 percent of the
time on mobile devices is spent in apps.
A study of Go-Globe shows statistics about traffic on internet every 60 seconds (Go-
Globe, 2017); this data belongs to internet Apps most common (table 1). In our prior
work (Espinal, Estrada & Monsalve, 2019), we show that IPv4 Traffic is significantly
higher respect to IPv6 in campus wireless network; similarly occur with TCP traffic over
UDP, and applications based on SSL and HTTP represents 99.16% of the total traffic.
In Wireless LANs or LTE networks, the transmission of information is performed using
discrete packets (Arrowsmith & Mondrag, 2005). To analyze and model the network
traffic, one can consider two variables: the packet size and the inter-arrival time (Lee
& Fapojuwo, 2005). Both variables have a stochastically behavior (Mansfield, Roy &
Shiratori, 2001), which must be monitored for the corresponding analysis.
Traffic network can be monitor by means of active or passive monitoring (Pries et al.,
2009). The active method generates new traffic, and inject it into the network, while
passive method consists on monitor, and capture the network traffic. We use the passive
form analyze the packet headers and produce statistics. One drawback of the passive
method is the privacy of the data to be captured, because the traditional packet sniffers
saves the entire packet: headers and payload (Gandhi et al, 2014). This method is
independent of the protocols and avoid the encrypted payload.
In this work, we proposed to analyze the internet traffic of most commonly used Apps in
mobile devices, connected to two type of networks. The first type of network is a wireless
network and the second one is an LTE network (4.5 G). By doing so, we can determine
the contribution of these Apps over SSL and HTTP protocols and propose statistical
models that estimate and simulate such traffics.
The rest of the paper is organized as follows: section II provides information about related
works; in section III we show the data collection, classified by application, according
to the variable packet size. Section IV presents the traffic model that characterize the
realistic traffic analyzed. The paper ends with the conclusions in section V.
2. Related work
Many works have analyzed the network traffic based on packet size, using methods such
as statistical analysis, pattern recognition, length of the application messages, packet
flows, user behavior, etc. Additionally, these studies had suggested models to simulate
the realistic network traffic.
A study for identifying network traffic based on message size analysis is presented
in (Hajjar, Khalife & Diaz, Verdejo, 2015), and a Gaussian model was proposed to
characterize the application-level protocols. In (Cao et al., 2013) a study showed that
network traffic is quite close to Poisson distribution according to interface link speed. A
work over internet data traffic generated in a university campus using a model for predict
internet data traffic is presented in (Adeyemi et al., 2018). A methodology for automatic
fingerprinting and real-time identification of Android apps from their encrypted network
traffic for protocols such as HTTPS/TLS is showed in (Taylor et al., 2016). A method
for extending labeled data that allows to identify unknown mobile traffic is proposed
in (Liu, Wang & Tang, 2018). In (Aceto et al., 2018) proposed a multi-classification
approach to improve the performance of classification of mobile apps traffic. A method
using extreme machine learning that developed a genetic algorithm-based software
for classification of the internet traffic was proposed in (Ertam & Avci, 2017). A study
about UDP traffic based on Inter-Packet Arrival Time and Inter-Packet Transmission
Delay and the impact on the round-trip delay, is presented in (Maheshwari et al., 2017).
In (Alan & Kaur, 2016) an App identification method using only TCP headers under
Android devices, that avoid encrypted traffic, is presented.
Regarding the traffic modelling, (Maheshwari, Mahapatra & Cheruvu, 2018) designed
a Hidden Markov model for network traffic and validated it for different packet sizes.
A modeling of the packet length from normal distributions applied to bimodal traffic
is presented in (Castro, Alencar & Fonseca, 2013). In (Al-Turjman et al., 2017) is
presented a novel traffic model for a new-generation of sensor networks that supports
a wide range of communication-intensive real-time multimedia applications. A new
feature optimization approach based on deep learning and Feature Selection techniques
to provide the optimal and robust features for traffic classification is presented in (Shi
et al., 2018). In (Cao et al., 2017) a network traffic model based on real-time accurate
support vector machine is deducted from the scaling dataset and employs component
analysis to extract network data features and verify its relevant traffic features obtained.
WICAP permit to capture the following fields in the header for further analysis: total
length (IPv4) o payload length (IPv6), source address, destination address, protocol
(IPv4) or next header (IPv6), source port, and destination port.
We implement two scenarios for collecting realistic traffic of mobile Apps. First, we
connect a smartphone to a university campus wireless network shown in figure 2, and
then connect the mobile device to LTE network shown in Fig. 3. The smartphone is a
Samsung Galaxy S8+, with Octa-Core CPU, 2.3GHz speed, 4 GB RAM, 64 GB internal
memory, 64 GB external memory (MicroSD) for data storage, and Android 9 operative
system. It can be connected to Wi-Fi networks using 802.11 a/b/g/n/ac 2.4G+5GHz. It
also can be connected to another cellular network based on 2G GSM, 3G WCDMA, 4G
LTE FDD, 4G LTE TDD.
We install Wireshark on a desktop computer with Windows 10. Its technical specifications
are AMD FX-8300 Eight-core processor, 24 GB of RAM, and two-network interface
cards (NIC) Ethernet. One NIC is dedicated to PC management, and the second one to
capture traffic. We connect the NIC for capturing, in a gigabit port of access layer Cisco
switch, and configure this port as analyzer monitor (SPAM) to reflect the interested
VLAN wireless traffic.
84
RISTI - Revista Ibérica de Sistemas e Tecnologias de Informação
The wireless campus network has around 300 access point managed by a wireless LAN
controller. On average between 5.000 and 6.000 wireless devices are connecting daily,
with an allocation of 300 MB of bandwidth to the internet. This include devices such
as smartphones, tables, and laptops. In this network, about 85% of mobile devices use
android operating system, 10% use windows, 3% use iOS, and 2% use another operating
system. This information is provided by the IT department through the Cisco Identity
Services Engine platform.
The LTE evolved network belonging to a cellular operator in our country. This use IP
RAN as access layer, LTE for Mobil access, fiber rings, ALCATEL routers, one per Radio
Access, Intermediate System to Intermediate System as IGP (interior gateway protocol).
In both scenarios we collected the data of the eight most common Apps on smartphones,
that includes: Google Drive, Facebook, Google search, Gmail, Twitter, YouTube, WhatsApp,
and Instagram. For each App, we execute the typical task in the smartphone according to
user behavior and collected the data with the network sniffers, on the smartphone using
WICAP for traffic over LTE network, and Wireshark on the computer over Wi-Fi network.
In Drive testing with upload and download of files; in Facebook, uploading pictures,
videos, navigating over user profiles, etc. Over Google, searching data and visualizing links,
images, videos, etc. And similar for other Apps in our exploratory study of packet size.
This work analyzes the variable packet size of typical Apps in mobile devices; this variable
usually is between 0 and 1500 bytes. To analyze the packet size, we take intervals of 10
bytes for discrimination (i.e. 0-10, 11-20, 21-30, etc.). Figures 4-11 show the packet size
probability for each App analyzed in this paper.
From Figure 4, we can see that there is a bimodal traffic distribution for Drive App in
both scenarios, similar in small packets but different in big packets. Over Wi-Fi network
this App have 23% of packets around of 60 bytes size, and 75% around 1410 bytes. For
the LTE network, it can observe that small packets represent 8% around 30 bytes, while
big packets contribute 88% around 570 bytes. This is an important difference in this App
behavior, and over the models to estimate this real traffic in both scenarios.
From Figure 5, we can see that there is a bimodal traffic distribution for Facebook
App in both scenarios, similar in small and big packets. Over Wi-Fi network this App
have 31% of packets around of 60 bytes size, and 62% around 1430 bytes. For the LTE
network, it can observe that small packets represent 35% around 30 bytes, while big
packets contribute 52% around 1490 bytes. This App behavior is similar for others Apps
as Google search, Twitter, YouTube, WhatsApp and Instagram, and over the models that
estimate this real traffic in both scenarios.
Finally, in Figure 7, we can observe that exist a trimodal traffic distribution for Email App
over LTE network, with 37% of packets (small) around 30 bytes, 4% around 570 bytes
(medium), and 34% for big packets around 1490 bytes. This App over Wi-Fi network has
a bimodal distribution.
distribution the probability of a packet following that distribution is 0.905. Finally, the
model is the result of the sum of two Poisson distributions as in (1):
(1)
Where x is the occurrence of packet size variable. In fig. 12 we show the simulate model
for Google Drive App pattern.
For Facebook App packets pattern the parameters are λ1 = 1414.78 and λ2 = 36.93. The
probability that the length of a packet belongs to the first distribution is 0.623, while for
the second distribution the probability of a packet following that distribution is 0.377.
The model is showed in (2) and the simulation in figure 13. For Outlook (email) the
model is the result of the sum of three Poisson distributions as in (3), and the simulation
in figure 14. The table 2 show the parameters for other Apps analyzed, where λ1 represent
App λ1 λ2 P1 P2
Google 1383.51 57.75 0.485 0.515
Twitter 1434.44 49.59 0.540 0.460
YouTube 1324.33 62.31 0.444 0.556
WhatsApp 35.78 1414.33 0.398 0.602
Instagram 34.96 1405.98 0.370 0.630
(2)
(3)
(4)
(5)
(6)
(7)
(8)
Additionally, table 3 show the parameters for Apps packets pattern over Wi-Fi network.
App λ1 λ2 P1 P2
Drive 1406.74 65.69 0757 0.243
Facebook 87.86 1412.47 0.360 0.640
Google 1365.83 98.28 0.371 0.629
Email 84.61 1394.65 0.493 0.507
Twitter 1412.38 71.23 0.575 0.425
YouTube 104.41 1374.74 0.167 0.833
WhatsApp 79.78 1422.31 0.359 0.641
Instagram 70.82 1404.54 0.414 0.586
Finally, we propose a hypothesis test to compare the average of the packets in the LTE
network versus the Wi-Fi network. In each case two hypothesis contrasts were proposed,
Ho: the average of the packages is equal; and in case the null hypothesis is not true, an
alternative hypothesis H1 is proposed: The average of the packets of the Wi-Fi network
is greater than the packets of the LTE network. The only application that shows that the
average of the packages in both scenarios is the same, is the Email App. For Apps such
as Drive, Facebook, Twitter, YouTube and WhatsApp, the result was that the average
packet of the Wi-Fi network is greater than that of the LTE network. For Apps such as
Instagram, and Google search, the average packet of the Wi-Fi network is smaller than
the LTE network. Next, we show in table 4 this comparison for Drive App:
5. Conclusions
In this paper, we presented an analysis for stochastic behavior of packet size for typical
Apps in mobile devices over two networks: wireless and LTE. The results show that a
bimodal traffic distribution can be used to represent Apps such as Drive, Facebook,
Google, Email, Twitter, YouTube, WhatsApp, and Instagram, with packets around 30
and 1.500 bytes, and small differences in both scenarios. Only Email App over LTE
network had a trimodal distribution. This Apps traffic represents a big impact over TCP
and IPv4 protocols.
We proposed models for characterize the network traffic using mixture Poisson
distribution and provide the best statistical fit to the packet size variable for each App
analyzed in this paper. These traffic models can be used to estimate real data traffic and
be applied for other research studies of computer networking. Devices manufacturers
and Apps developers can focus on characteristics of the popular applications for traffic
performance evaluation, and resource optimization.
This work could serve as a starting point for the optimization of the communication
parameters, such as bandwidth, delay, jitter and packet loss, of different Apps according
to the network that is being used. Also, this study can be used for networking community
researchers to improve security policies, traffic engineering in high performance
networks, and network quality of service provisioning according to traffic type (voice,
video, data).
The future work will be centered in analyze the impact over network delay, mainly
queuing delay in intermediate systems, and design and modelling of a quality of service
policy based on packet size, which help to reduce end-to-end delay in a communication
over an IP network.
References
Aceto, G., Ciuonzo, D., Montieri, A., & Pescapé, A. (2018). Multi-classification approaches
for classifying mobile app traffic. Journal of Network and Computer Applications,
103, 131–145. [Link]
Adeyemi, O. J., Popoola, S. I., Atayero, A. A., Afolayan, D. G., Ariyo, M., & Adetiba, E.
(2018). Exploration of daily Internet data traffic generated in a smart university
campus. Data in Brief, 20, 30–52. [Link]
Alan, Hasan Faik, and Jasleen Kaur. (2016). Can Android Applications Be Identified
Using Only TCP/IP Headers of Their Launch Time Traffic? In Proceedings of the
9th ACM Conference on Security & Privacy in Wireless and Mobile Networks -
WiSec ’16, New York, New York, USA: ACM Press, 61–66.
Al-Turjman, Fadi, Ayman Radwan, Shahid Mumtaz, and Jonathan Rodriguez. (2017).
Mobile Traffic Modelling for Wireless Multimedia Sensor Networks in IoT.
Computer Communications Journal.
Arrowsmith, D. K., & Mondrag, R. J. (2005). Modelling Network Data Traffic. Retrieved
from [Link]
Cao, Jin, William S. Cleveland, Dong Lin, and Don X. Sun. (2013). Internet Traffic Tends
Toward Poisson and Independent as the Load Increases. Nonlinear Estimation and
Classification: 83–109.
Cao, J., Fang, Z., Qu, G., Sun, H., Zhang, D. (2017). An Accurate Traffic Classification
Model Based on Support Vector Machines. International Journal of Network
Management 27(1).
Castro, R. S., Alencar, M., & Fonseca, I. (2013). Probability Density Functions of the
Packet Length for Computer Networks with Bimodal Traffic. International Journal
of Computer Networks & Communications, 5(3), 17–31. [Link]
ijcnc.2013.5302
CISCO (2017). Cisco visual networking index: forecast and trends. Retrieved from
[Link]
networking-index-vni/[Link]
Ertam, Fatih, and Engin Avcı. (2017). A New Approach for Internet Traffic Classification:
GA-WK-ELM. Measurement: Journal of the International Measurement
Confederation 95.
Espinal, A., Estrada, R., & Monsalve, C. (In press). Modelling TCP/IP traffic of a
convergent campus wireless network. ICAMCS – International Conference on
Applied Mathematics and Computer Science.
Gandhi, C., Suri, G., Golyan, R. P., Saxena, P., & Saxena, B. K. (2014). Packet Sniffer
– A Comparative Study. International Journal of Computer Networks and
Communications Security, 2(5), 179–187. Retrieved from [Link]
published/volume2/issue5/p6_2-[Link]
Go-Globe (2017). Things that happen on internet every 60 seconds. Retrieved from:
[Link]
Hajjar, A., Khalife, J., & Díaz-Verdejo, J. (2015). Network traffic application identification
based on message size analysis. Journal of Network and Computer Applications,
58, 130–143. [Link]
Hosting Facts (2018). The Internet Stats & Facts for 2019. Retrieved from: https://
[Link]/internet-facts-stats/.
Lee, I. W. C., & Fapojuwo, A. O. (2005). Stochastic processes for computer network traffic
modeling. Computer Communications, 29(1), 1–23. [Link]
comcom.2005.02.004
Liu, Z., Wang, R., & Tang, D. (2018). Extending labeled mobile network traffic data by
three levels traffic identification fusion. Future Generation Computer Systems, 88,
453–466. [Link]
Maheshwari, S., Mahapatra, S., & Cheruvu, K. (2018). Measurement and Forecasting of
Next Generation Wireless Internet Traffic.
Maheshwari, Sumit, K. Vasu, Sudipta Mahapatra, and C. S. Kumar. (2017). Measurement
and Analysis of UDP Traffic over Wi-Fi and GPRS. [Link]
(January 1, 2019).
Mansfield, G., Roy, T. K., & Shiratori, N. (2001). Self-similar and fractal nature of
Internet traffic data. International Conference on Information Networking, 14(2),
227–231. [Link]
Pries, R., Warmer, F., Staehle, D., Heck, K., & Tran-Gia, P. (2009). Traffic measurement
and analysis of a broadband wireless internet access. IEEE Vehicular Technology
Conference. [Link]
Shi, Hongtao, Li H., Zhang D., Cheng C., Cao X. (2018). An Efficient Feature Generation
Approach Based on Deep Learning and Feature Selection Techniques for Traffic
Classification. Computer Networks 132: 81–98.
Taylor, V. F., Spolaor, R., Conti, M., & Martinovic, I. (2016). AppScanner: Automatic
fingerprinting of smartphone apps from encrypted network traffic. In Proceedings
- 2016 IEEE European Symposium on Security and Privacy, EURO S and P 2016
(pp. 439–454). [Link]
gchanchig@[Link], [Link]@[Link]
1
Universidad de Cartagena, Avenida del Consulado, Cll 30 # 48-152, 130001, Cartagena-Bolívar, Colombia
2
Universidad Nacional, Abierta y a Distancia, Cra 3 # 2-55, 190004, Popayán-Cauca, Colombia
Pages: 95–107
1. Introducción
El análisis y detección de emociones es un factor relevante para evaluar el grado de
percepción de un usuario con respecto a un producto o servicio. En ese orden de ideas, en
el campo de la usabilidad, la emocionalidad de un usuario es un elemento fundamental
de cara a la estimación del atributo satisfacción (Delgado, Girón, Chanchí, & Márceles,
2018; Hassan & Martín, 2003; Enriquez & Casas, 2013; Hassan, 2015). Es así como la
computación afectiva ha surgido como un área de investigación emergente, centrada
en el desarrollo de dispositivos y sistemas con capacidad para reconocer, interpretar,
procesar y simular las emociones humanas con el fin de mejorar la interacción entre el
usuario y el computador (Baldasarri, 2016; González, 2017; Bustos et. al, 2016).
En el campo de la computación afectiva, se han venido desarrollado diferentes
investigaciones aplicadas al contexto de las redes sociales, las cuales se centran en
analizar el comportamiento de los usuarios a través de sus publicaciones (Garcia et al.,
2019; Brajawidagda, Scholl, & Chatfield, 2013; Rani & Rani, 2016; Ravi & Ravi, 2015).
En este mismo sentido, la computación afectiva ha venido también aplicándose al
análisis de contenido auditivo musical, teniendo en cuenta propiedades acústicas como
el arousal y la valencia, las cuales permiten clasificar un fragmento de audio en una
emoción determinada (Meyers, 2007; Solarte et al., 2016a; Solarte et al., 2016b). Por
otra parte, a nivel comercial, se han desarrollado diferentes plataformas de computación
afectiva en línea tales como Echonest, Musicovery o Gracenote, las cuales posibilitan el
análisis y clasificación de un conjunto limitado de contenidos auditivos musicales en
emociones a partir del estudio de sus variables acústicas y la valoración de los usuarios
(Solarte et al., 2016b).
Este artículo propone como aporte la generación de un estudio de análisis de emociones
y sentimientos sobre el discurso del presidente Santos en la firma del acuerdo de
paz en Colombia. La intención del estudio es realizar una comparación entre las
emociones obtenidas en los diferentes momentos de la pista de audio del discurso con
los sentimientos extraídos a partir de los fragmentos de texto del discurso. Para el
estudio de las emociones en las pistas de audio, se construyó en el lenguaje Java un
analizador de emociones, el cual permite obtener la traza de emociones en los diferentes
momentos de una pista de audio. Este analizador toma en cuenta a nivel conceptual el
modelo propuesto por Russell y de manera específica las variables acústicas de arousal
y valencia, las cuales permiten la clasificación de un fragmento de audio en el espacio
emocional del modelo. Para la extracción de las propiedades de arousal y valencia, el
analizador hace uso de la librería abierta para el análisis acústico openEAR (Eyben,
Wollmer, & Schuller, 2012). Por su parte, para el análisis de sentimientos del discurso se
hizo uso de la herramienta en línea provista por el portal de ParallelDots, la cual permite
clasificar un texto en tres posibles sentimientos: positivo, neutral y negativo, indicando
el porcentaje de cercanía del texto con estos tres tipos de sentimientos.
El resto del artículo está organizado de la siguiente forma: en la sección 2 se presenta
la metodología considerada; en la sección 3 se describen un conjunto de conceptos
relevantes que se tuvieron en cuenta para el desarrollo del presente trabajo; en la
sección 4 se presenta el modelo de emociones considerado para el diseño y construcción
del analizador de emociones para contenidos de audio; en la sección 5 se describe la
2. Metodología
Para el desarrollo de la presente investigación, se consideraron 4 fases a saber: exploración
de modelos y tecnologías; diseño y construcción del analizador de emociones; análisis de
sentimientos y emociones sobre al discurso; comparación de resultados.
3. Marco Conceptual
En esta sección se presentan un conjunto de conceptos relevantes que se tuvieron en
cuenta para el desarrollo de la presente investigación. Dentro de estos conceptos se
encuentran: análisis de sentimientos, modelo de Russell, arosual, valencia.
3.2. Arousal
Es propiedad acústica que representa una medida de percepción de la intensidad y la
actividad a lo largo de la pista de audio. Típicamente las pistas de audio rápidas que
cuentan con sonidos fuertes y ruido, tendrían una alta energía, mientras que una pista
de audio que contenga sonidos leves y poco ruido, estaría bajo en la escala de energía.
Otras características que contribuyen en este atributo son la percepción del volumen,
timbre vocal, entropía general (Solarte et al., 2016b).
3.3. Valencia
Es una propiedad auditiva que describe la positividad trasmitida por una pista de
audio. Las pistas con alta valencia están asociadas con emociones positivas tales como:
estar feliz, alegre eufórico, entre otros. Por otra parte, las pistas con baja valencia están
asociadas a emociones negativas o estados de ánimo tales como: tristeza, depresión,
enojo (Solarte et al., 2016b).
5. Analizador de emociones
En esta sección se presenta el diagrama de bloques del analizador de emociones en pistas
de audio y las interfaces finales del mismo.
en formato CSV con la traza de emociones. Las gráficas obtenidas por el analizador son
generadas por la API JFreeChart de Java, la cual cuenta con una amplia variedad de
modelos de gráficas que pueden ser desplegados al cargar los datos a partir de estructuras
temporales. Finalmente, considerando que las librerías openEAR y ffmpeg requieren ser
ejecutadas en el sistema operativo Linux, se escogió la distribución Lubuntu.
codificación mediante la librería ffmpeg. Una vez cargado el archivo de audio, se muestra
en pantalla la duración en segundos del mismo, de tal manera que cuando se presiona
el botón “Procesar audio”, el archivo comienza a ser segmentado en fragmentos de 5
segundos, los cuales son analizados mediante la librería openEAR con el fin de obtener
las variables acústicas de arousal y valencia. Estas variables son utilizadas para obtener
según el modelo de emociones considerado en la figura 3, una de las 5 emociones a las
que está asociado dicho fragmento de audio. En el área de texto de la primera pestaña
se aprecia como el analizador va realizando en tiempo real el proceso de segmentación,
procesamiento y detección de la emoción asociada. Una vez termina el análisis completo
de toda la pista de audio, el analizador tiene la opción de generar un reporte del análisis,
de tal manera que al presionar el botón “Generar Reporte”, se genera en la pestaña de
“Seguimiento de Emociones” una gráfica que representa la fluctuación de las emociones
en los diferentes momentos de la pista de audio (ver figura 6).
Del mismo modo, al tiempo que se genera la gráfica en la pestaña “Seguimiento de
Emociones”, en la pestaña “Porcentaje de Emociones” se muestra una gráfica de torta
con la distribución de las emociones en la pista de audio. Dicho proceso es realizado
mediante la contabilización de los fragmentos de 5 segundos que están asociados a una
de las 5 emociones (relajado, triste, enojado, excitado) del modelo considerado (ver
figura 6b). A modo de ejemplo, en la figura 6a se presenta la taza de emociones en una
pista específica de audio, en la cual se tiene la participación de tres emociones puntuales
“feliz”, “excitado” y “triste”, siendo las dos primeras las de mayor participación a lo largo
de la pista de audio.
obtener de cada segmento las variables acústicas de arousal y valencia, mediante las cuales
es posible asociar un determinado segmento a una emoción del modelo considerado en
la sección 4. Así, en la figura 7a se presenta el proceso de segmentación y clasificación
realizado por la herramienta automatizada propuesta sobre el discurso del presidente
Santos, el cual tiene una duración aproximada de 22 minutos. Una vez culminado el
proceso de análisis de emociones de los diferentes segmentos de audio que conforman el
discurso del presidente Santos, la herramienta automatizada permite generar un reporte
del comportamiento emocional presentado a lo largo del discurso. Del mismo modo se
genera una gráfica de torta que presenta la distribución de las emociones en el audio
analizado (ver figura 7b).
De acuerdo a la figura 7b, son tres las emociones predominantes en el discurso del
presidente: feliz, relajado y triste. Lo anterior se presenta de manera detallada en la
tabla 2, donde se muestra la distribución porcentual de cada uno de estas emociones en
el audio analizado.
(feliz, relajado y triste), siendo representativa a lo largo del discurso la fluctuación entre
la emoción relajado a la emoción feliz y viceversa.
puede relacionar directamente con los resultados del análisis de emociones presentado
en la tabla 2, en donde son solamente tres las emociones que se presentan en el audio
del discurso: feliz, relajado y triste. En este orden de ideas es posible establecer una
concordancia entre las emociones y sentimientos: feliz y positivo, triste y negativo,
relajado y neutro. Del mismo modo, es posible observar que en los dos análisis
realizados, tanto la emoción feliz como el sentimiento positivo tienen una distribución
porcentual cercana, siendo para el primer caso de 53.3% y para el segundo de 58.2%. Los
anteriores resultados permiten inferir que existe una correspondencia entre el análisis
de emociones realizado sobre el audio del discurso y el análisis de sentimientos realizado
sobre el texto del mismo.
Referencias
Baldasarri, S. (2016). Computación Afectiva: tecnología y emociones para mejorar la
experiencia. Revista Institucional de la Facultad de Informática - UNLP, 14–15.
Brajawidagda, U., Scholl, H., & Chatfield, A. (2013). Tsunami early warnings via Twitter
in government: Net-savvy citizens’ co-production of time-critical public information
services. Government Information Quarterly, 377–386.
Bustos, M., Hernández, A., Vásquez, R., Hernández, G., Zatarain, R., & Barrón, M.
(2016). EmoRemSys: Sistema de recomendación de recursos educativos basado
en detección de emociones. RISTI - Revista Ibérica de Sistemas e Tecnologias de
Informação, 80–95.
Delgado, D., Girón, D., Chanchí, G., & Márceles, K. (2018). Propuesta de una herramienta
para la estimación de la satisfacción en pruebas de usuario, a partir del análisis de
expresión facial. Revista Colombiana de Computación, 6–15.
Enriquez, J., & Casas, S. (2013). Usabilidad en aplicaciones móviles. Informe Científico
Técnico UNPA, 25–47.
Eyben, F., Wollmer, M., & Schuller, B. (2012). openEAR - Introducing the Munich Open-
Source Emotion and Affect Recognition Toolkit. Technische Universitat Munchen.
Garcia, J., Henríquez-Coronel, P., Pincay, J., & Herrera-Tapia, J. (2019). Analítica de
Twitter para el estudio de las emociones primarias durante el terremoto de México
2017. RISTI - Revista Ibérica de Sistemas e Tecnologias de Informação, 479–492.
González, R. (2017). Computación Afectiva: Una mirada a la historia, aplicaciones y
proyecciones. Revista Bits de Ciencia - Universidad de Chile , 64–71.
Grau, J. (2007). Pensando en el usuario: la usabilidad. Anuario: Think EPI, 172–177.
Hassan, Y. (2015). Experiencia de Usuario: Principios y Métodos. Granada-España.
Hassan, Y., & Martín, F. (2003). Más allá de la Usabilidad: Interfaces ‘afectivas’. No solo
usabilidad.
Jang, S., & Namkung, Y. (2009). Perceived quality, emotions, and behavioral intentions:
Application of an extended Mehrabian–Russell model to restaurants. Journal of
Business Research, 451–460.
Meyers, O. (2007). A mood-based music classification and exploration system.
Massachusetts Institute of Technology.
Preece, J. (1994). Human Computer Interaction (ICS). Addison-Wesley.
Rani, V., & Rani, K. (2016). Twitter Streaming and Analysis through R. Indian Journal
of Science and Technology, 1–6.
Ravi, K., & Ravi, V. (2015). A survey on opinion mining and sentiment analysis: Tasks,
approaches and applications. Knowledge-Based Systems, 14–46.
Acurio Maldonado Santiago Alejandro1, Robayo Jácome Darío Javier1, Acurio Maldonado
Daniel Marcelo1, Amancha Proaño Pablo1, Cárdenas Salazar Álvaro1
1
Pontificia Universidad Católica del Ecuador Sede Ambato, Ambato, EC180207, Tungurahua, Ecuador.
Pages: 108–119
Abstract: The aim of this study is to control the upper limbs of a humanoid robot so
that it follows the movements of a user, captured by a natural interface. To meet this
objective, a Kinect device and SDK developer libraries have been used to represent
the human skeleton with joints and bones. The vector and angular quantities of
the upper limbs are calculated using information from the Kinect device. These
values are then transformed through Visual C # encoded algorithms. Finally, this
data is sent by an RS232 serial connection to each servomotor in the humanoid
robot’s limbs. The result of the application is a similar movement between the user
and the humanoid with one or both arms. Further studies will enable the complete
movement of an imitator robot.
Keywords: humanoid robot, Kinect, RoboBuilder, Visual C#, serial
communication, upper limbs movement.
1. Introducción
La robótica en la actualidad tiene un impacto relevante en las actividades humanas
(Tsarouchi, Makris, & Chryssolouris, 2016) (Koppula & Saxena, 2016) y se espera
un desarrollo más significativo aún (Mercader Uguina, 2017). Los robots con forma
humana han sido desarrollados de manera muy diversa. En este trabajo se muestra un
procedimiento para implementar una interfaz natural de usuario o NUI por sus siglas
en inglés (Kaushik & Jain, 2014), que permita manipular las extremidades superiores de
un robot HUNO para una modificación de sus posiciones en tiempo real (Liu, Xi, Song,
Um, & Cho, 2013).
RoboBulider es una plataforma educativa DIY, constrúyelo tú mismo por sus siglas en
inglés, utiliza comunicación serial con el computador y puede ser ensamblado de tres
maneras distintas, siendo la disposición tipo HUNO1 la correspondiente a un humanoide
de 16 grados de libertad.
Con esta finalidad, se utiliza un dispositivo Kinect2 de XBOX360 (Damle, Gujar, Joshi,
& Nagre, 2015) que permite reconocer la estructura corporal de un usuario de forma
que su representación en puntos forma un esqueleto. Esta distribución corporal permite
determinar los movimientos humanos, basado en los puntos y vectores que forman las
extremidades superiores.
Estos movimientos son analizados vectorialmente, de forma que se representan
posiciones angulares en tres dimensiones, las mismas que se traducen matemáticamente
(Curci & Gini, 2015), con un algoritmo computacional en las posiciones de los
servomotores de las extremidades superiores del robot HUNO, la comunicación serial,
permite que estas posiciones se envíen a la plataforma RoboBuilder y los movimientos
se representen en tiempo real
Valbuena, 2015) (Rakita, Mutlu, & Gleicher, 2017). Tölgyessy, Dekan, & Hubinský
(2018) diseñaron un método en el cual un robot se mueve hacia una posición designada
por un operador humano; esto gracias al sensor de profundidad de Kinect, que captura
la posición y el gesto del operador. En este tipo de aplicaciones es fundamental medir
el alcance y tiempo de respuesta que el Kinect presenta para dar paso al control
eficiente y exacto de dispositivos a través de movimientos (Villicaña González,
Orvañanos Guerrero, & Rodríguez Figueroa, 2018). Los movimientos de los brazos de
un humanoide se realizan mediante servomotores que responden a coordenadas en los
ejes x, y, z; por lo que es necesario un análisis de la cadena cinemática y de la geometría
del robot; para ello se aplica cinemática inversa encontrando así el movimiento del
servo que alcance la posición apropiada en el espacio, lo que al final resulta en un
sistema de ecuaciones (Flacco, 2017).
El presente trabajo muestra un alcance al análisis cinemático basado en un estudio
vectorial de los movimientos de los brazos de un usuario, para que sean imitados por
un humanoide en tiempo real, sin afectar su equilibrio. El aporte que se presenta es un
proceso de construcción de una solución robótica, un conjunto de cálculos angulares que
pueden ser replicados en otros humanoides; y, una experimentación práctica de estos
resultados en una plataforma robótica educativa.
3. Desarrollo
El esquema de funcionamiento que se utiliza en el prototipo de ilustran en la figura1.
Un usuario interactúa con el dispositivo Kinect, el mismo que se comunica con el
computador vía USB, se procesa la información de los movimientos detectados y las
posiciones angulares son enviadas vía RS-232 (US Patente nº US6738855B1, 2004)al
robot HUNO, el cual imita los movimientos humanos.
Para la detección del usuario, se utiliza el SDK de Kinect (Rahman, 2017), que proporciona
un conjunto de métodos para la determinar las coordenadas de las articulaciones del
cuerpo humano. Para la comunicación serial con el humanoide se utiliza la librería
RoboBuilderLib que proporciona métodos de control de los grados de libertada del
robot HUNO.
que combina las cámaras RGB y de profundidad (Komang, Surya, & Ratna, 2016) para
determinar los veinte puntos de referencia y 19 huesos que conforman una estructura
corporal humana simplificada formando un modelo para el análisis (Na, Choi, Kim, &
Kim, 2019)(ver figura 4).
Cada una de las articulaciones tiene una ubicación que es determinada en un grupo
de coordenadas tridimensionales (X, Y, Z) (Na, Choi, Kim, & Kim, 2019). Estos datos
permiten determinar los ángulos corporales que se forman entre cada uno de los huesos
de la representación con el uso del sensor Kinect (Su, Wu, Sheng, & Shen, 2019).
Para el efecto de este trabajo, se analizan exclusivamente las extremidades superiores.
Así se estudian los vectores que se forman entre el hombro y codo; y entre el codo y la
mano, de cada una de las extremidades izquierda y derecha.
Así para la extremidad superior derecha se analizan las distribuciones angulares para el
plano XY se determinan los ángulos Hd (hombro derecho) y Cd (codo derecho). En el
plano YZ los vectores corporales forman el ángulo Hdz, como se muestra en la figura 5.
Figura 4 – Esqueleto digital provisto por Kinect con el nombre de las articulaciones
+ + ) (1)
Con los datos obtenidos del sensor Kinect de cada uno de los puntos y aplicando la
ecuación 2, se determina el módulo de cada uno de los vectores formados entre los
puntos hombro-codo ((V_1 ) ⃗) y codo-mano ((V_2 ) ). Según (2).
(2)
(3)
Para determinar el valor de los ángulos del hombro derecho y el hombro izquierdo en el
plano XY se utilizan las ecuaciones 4 y 5 respectivamente.
(4)
(5)
El valor del ángulo que se forma en el hombro para el eje Z se determina mediante la
ecuación 6.
(6)
Una vez obtenidos los valores de cada una de las extremidades; según el procedimiento
establecido, estos valores deben ser convertidos en valores que puedan ser interpretados
adecuadamente (Vongchumyen, Bamrung, Kamintra, & Watcharapupong, 2018)en la
plataforma robótica de RoboBuilder. Los movimientos de los dieciséis servomotores
del robot humanoide pueden recibir valores enteros para sus correspondientes ángulos
entre 0 y 250 grados.
Como los valores angulares obtenidos no guardan una correspondencia directa con los
rangos en cada servomotor de la plataforma robótica deben ser transformados según lo
que se establece en la siguiente tabla:
Nombre Valores
ID Motor del Fórmula de conversión
Motor Máximo Rango
Hombro
10 270° 0.89
izquierdo Z
Si el ángulo > 0
Hombro
11 derecho - -
Caso contrario
XY
180° 0.944443
Codo
12
izquierdo Caso contrario
0.444443
Hombro
13 270° 0.89
derecho Z
Si ángulo > 0
Hombro
14 - 0.855555
derecho XY Caso contrario
Codo
15 180° 0.84444443
derecho
Tabla 1 – Cálculo del valor de servomotores de las extremidades superiores del robot humanoide
4. Resultados y discusión
Como primer resultado parcial de este trabajo se establecen una serie de valores angulares
para cada grupo de servomotores que conforman una extremidad. Las tablas 2 y 3
muestran un resumen de los ángulos corporales y su respectiva posición transformada
en valores por servomotor.
Con estos datos presentados en este trabajo pueden establecer posteriormente algoritmos
computacionales que establezcan movimientos individuales por cada brazo. Se sugiere
las opciones de movimientos: lateral, arriba, frontal y abajo. Una vez establecidos los
movimientos individuales se pueden preparar soluciones de movimientos en conjunto
de las extremidades superiores.
5. Conclusiones
La aplicación de las cámaras RGB y de profundidad del Kinect de Xbox, así como el uso
de los métodos expuestos en el Kinect SDK, permiten a través de las clases Skeleton la
representación y captura efectiva de los movimientos corporales de las extremidades
superiores de un usuario.
La librería dinámica RoboBuilderLib resulta de utilidad para la transmisión de los datos
de las posiciones de los servomotores desde el computador hacia el humanoide. Se
utiliza el puerto de comunicación DB9 sin embargo es de fácil transformación a USB con
adaptadores.
Los principios matemáticos utilizados para la determinación de los ángulos corporales
no tienen dependencia de la plataforma robótica, de forma que los datos presentados,
pueden ser aplicados en cualquier robot de tipo humanoide.
La aplicación de un procedimiento para la determinación de las posiciones de los
servomotores de la plataforma robótica resulto eficiente en cuanto los movimientos de
las extremidades superiores puesto que permite determinar con exactitud los ángulos en
tres dimensiones de cada uno de los puntos de las extremidades superiores.
El movimiento de las extremidades inferiores de un robot humanoide presenta mayores
complicaciones relacionadas con el equilibrio del robot, por lo que sería recomendable
el uso de plataformas robóticas educativas con acelerómetros o giroscopios para logar
cálculos del centro de gravedad.
Referencias
Cubides Franco, A. (2017). Diseño e implementación de un sistema de interacción
entre robots E-pucks dirigidos por un usuario y objetos virtuales. Bachelor’s thesis,
Universidad Autónoma de Occidente.
Curci, M., & Gini, G. (2015, 12 18). POLITESI archivio digitale delle tesi di laurea e di
dottorato. Retrieved from Tesi di laurea specialistica/magistrale: [Link]
net/10589/115941
Damle, R., Gujar, A., Joshi, A., & Nagre, K. (2015). Human Body Skeleton Detection and
Tracking. International Journal of Technical Research and Applications, 222–225.
Flacco, F. (2017). Real-Time Computation of Distance to Dynamic Obstacles with
Multiple Depth Sensors. IEEE Robotics and Automation Letters, 56–63.
Goldman, S. (2004). US Patent No. US6738855B1.
Gutierrez Cáceres, E., Pardo Beainy, C., Sosa Quintero, L., & Jiménez López, F. (2017).
ROBOT DIBUJANTE CONTROLADO MEDIANTE EL SENSOR KINECT. Revista
Colombiana de Tecnología de Avanzada.
Hurtado-Chavez, J., Nástar-Guacales, A., & Vivas-Albán, O. (2015). Sistema de captura
de gestos con KINECT para la manipulación de robots quirúrgicos virtuales.
ITECKNE, 12(1), 17–24.
Jimenez Moreno, R. (2015). Tracking Humano mediante kinect para control de robots.
Clepsidra, 107–112.
Kaushik, M., & Jain, R. (2014). Gesture Based Interaction NUI: An Overview.
International Journal of Engineering Trends and Technology (IJETT), 9(12),
633–636.
Komang, M., Surya, M., & Ratna, A. (2016). Human activity recognition using skeleton
data and support vector machine. Paper presented at the Journal of Physics:
Conference Series. doi:doi:10.1088/1742-6596/1192/1/012044
Koppula, H., & Saxena, A. (2016). Anticipating Human Activities Using Object
Affordances for Reactive Robotic Response. IEEE Transactions on Pattern Analysis
and Machine Intelligence, 14–19.
Liu, H., Xi, Y., Song, W., Um, K., & Cho, K. (2013). Gesture-Based NUI Application for
Real-Time Path Modification. IEEE 11th International Conference on Dependable,
Autonomic and Secure Computing, Chengdu, doi: 10.1109/DASC.2013.104,
446–449.
Martínez, C., Badillo, I., Pimentel, J., Pérez, E., Acevedo, F., & Rosales, L. (2016).
Sistema de Navegación Reactiva Difusa para Giros Suaves de Plataformas Móviles
Empleando el Kinect. Revista Electrónica de Computación, Informática, Biomédica
y Electrónica.
Medina Lee, J., & Capacho Valbuena, L. (2015). Control de un robot humanoide
utilizando Motion Retargeting. Journal of Research of the University of Quindio,
27(2), 23–28.
Mercader Uguina, J. (2017). El impacto de la robótica y el futuro del trabajo. Revista de
la Facultad de Derecho de México, 67(269), 149–174.
Museros Romero, P. (2017). Mecánica : Estática y cálculo vectorial. Valencia: Editorial
de la Universidad Politécnica de Valencia.
Na, H., Choi, J., Kim, H., & Kim, T. (2019). Development of a human metabolic rate
prediction model based on the use of kinect-camera generated visual data-driven
approaches. Building and Environment. doi:10.1016/[Link].2019.106216
Pullen, P., Ogbesor, A., & Seffens, W. (2015). Kinect acquisition of skeleton body
positions during yoga and tai chi for exergame development. Medicine & Science
in Sports & Exercise.
Rahman, M. (2017). Beginning Microsoft Kinect for Windows SDK 2.0: Motion and
Depth Sensing for Natural User Interfaces. Montreal: Apress.
Rakita, D., Mutlu, B., & Gleicher, M. (2017). A Motion Retargeting Method for Effective
Mimicry-based Teleoperation of Robot Arms. Proceedings of the 2017 ACM/IEEE
International Conference on Human-Robot Interaction, (pp. 361-370). Vienna.
Rodríguez Pérez, M. (2015). Desarrollo de un sistema para la teleoperación de un robot
manipulador cilíndrico mediante reconocimiento de gestos a través del sensor
Kinect. Universidad Politécnica de Valencia, Valencia.
Su, B., Wu, H., Sheng, M., & Shen, C. (2019). Accurate hierarchical human
actions recognition from kinect skeleton data. IEEE Access. doi:10.1109/
ACCESS.2019.2911705
Tölgyessy, M., Dekan, M., & Hubinský, P. (2018). Human-Robot Interaction Using
Pointing Gestures. Proceedings of the 2nd International Symposium on Computer
Science and Intelligent Control. Estocolmo.
Tsarouchi, P., Makris, S., & Chryssolouris, G. (2016). Human–robot interaction review
and challenges on task planning and programming. International Journal of
Computer Integrated Manufacturing, 916–931.
Vargas, G., Abad, Á., Baena, N., Guadarrama, J., & Valdiviezo, I. (2015). Control de
Señales EMG para el Movimiento de un Brazo Robótico de Tres Grados de Libertad.
Cultura Científica y Tecnológica.
Villicaña González, C., Orvañanos Guerrero, M. T., & Rodríguez Figueroa, E. (2018).
Brazo Robótico Controlado por Medio de Visión Computacional utilizando un
Kinect. Tecnológico Nacional de México.
Vongchumyen, C., Bamrung, C., Kamintra, W., & Watcharapupong, A. (2018).
Teleoperation of Humanoid Robot by Motion Capturing Using KINECT.
International Conference on Engineering, Applied Sciences, and Technology (pp.
1-4). IEEE.
Joe Llerena Izquierdo1, Maitte Robalino Alfonso1, Michael Andina Zambrano1, Jamilette
Grijalva Segovia1.
Pages: 120–133
the learning of chess, with various methods of application for education, giving
precise information about learning in an interactive way.
Keywords: Augmented Reality, M-Learning, Digital Education, Interactive
Systems, Big Data.
1. Introducción
Con las nuevas tecnologías de la información que se incorporan al aula, las innovaciones
educativas se diversifican. La educación transciende en los niños, cambiando la forma
en que ésta se aplica, se buscan nuevos sistemas de enseñanza y métodos de aprendizaje
de manera más dinámica y sencilla (Banchoff Tzancoff, Martin, López, & Alfano, 2015).
Actualmente hay muchos recursos tecnológicos que facilitan la educación de los niños
en las escuelas, en distintas áreas de estudio y en el control de las actividades diarias que
supervisan los padres de familia. Una de las principales tendencias en el ámbito del uso
de las tecnologías en la educación, es la gamificación, que hace referencia a la aplicación
dinámica de los juegos en distintos ámbitos, en este caso, en la educación (Kim, Song,
Lockee, & Burton, 2018).
La gamificación consigue implicar al participante y ofrecer una forma diferente de
aprendizaje, motivándole y desarrollando un compromiso para alcanzar un objetivo
de estudio. En el amplio abanico de estas tecnologías que se usan dentro del aula, nos
enfocamos en la realidad aumentada, la misma que genera nuevos modos de interactuar
con el entorno y ofrece un gran potencial educativo (Akçayır & Akçayır, 2017). La
realidad aumentada permite un potencial desarrollo de incorporar gamificación en
áreas de estudio específicas. El uso de dispositivos móviles y/o Smartphone para uso
académico, juegan un gran papel importante en las técnicas que se usan en la actualidad
para captar apego e inclinación a diferentes temáticas de estudio, gracias a aplicaciones
innovadoras (Barbour, 2014).
En Ecuador, existen diversas propuestas que unen la educación con la realidad
aumentada, con el fin de innovar estrategias que aumenten el interés de los niños para
un tema específico. Sin embargo, poca atención se ha prestado al desarrollo de estas
propuestas para el aprendizaje del ajedrez, a la fecha no hay evidencia de una aplicación
móvil que refuerce de manera interactiva el aprendizaje de este deporte ciencia con el
uso de la realidad aumentada. La finalidad de este documento es fomentar y fortalecer
metodologías innovadoras de aprendizaje que permitan disminuir brechas digitales en
la educación, gracias a las aplicaciones móviles con realidad aumentada creada para
sistemas Android.
La aplicación “Jaque Maitte” permite interactuar con el usuario, pensado para que se
pueda aprender ajedrez de manera interactiva utilizando nuevas tecnologías emergentes.
2. Marco Teórico
esta técnica depende primeramente del tema que se desea fomentar y de la imaginación
que se le adapta al elemento virtual. Existe la posibilidad de añadir a los libros, revistas,
tarjetas y demás textos, un marcador que ejemplifica o modela la información contenida,
de igual forma se pueden utilizar para hacer referencia a información que complemente
el aprendizaje del tema (Lee, 2012). Por otro lado, una de las virtudes que ofrece la
realidad aumentada, es su capacidad de modelar lo que se está explicando, esto permite
inclusive la interacción y la maniobra, favoreciendo la experimentación y el desarrollo
educativo (Bower, Howe, McCredie, Robinson, & Grover, 2014).
Esta capacidad de interacción es precisamente la principal ventaja de la realidad
aumentada al compararla con el audiovisual tradicional, ya que los procesos pedagógicos
se ven muy beneficiados cuando el estudiante posee experiencias cercanas a las materias
de estudio. Igualmente, la realidad aumentada admite la contextualización del objeto
de estudio, del mismo modo, una de las ventajas de aplicar esta técnica en la educación,
es la posibilidad de explicar conceptos abstractos, las cuales no podemos acceder de
una manera tangible, como por ejemplo conceptos químicos, esto nos permite ver una
molécula en tres dimensiones, poder agrandarla, modificarla y esto ya nos permite
comprender de una manera concreta conceptos abstractos (Kesim & Ozarslan, 2012).
La figura 1 muestra la aplicación “Jaque-Maitte” ejecutada en un dispositivo móvil con
sistema operativo Android, que usa la realidad aumentada con entorno multimedia al
apuntar a una pieza de ajedrez.
el aprendizaje de competencias y saberes que son necesarias para una inserción plena
en la cultura contemporánea y en la sociedad del futuro (Williamson, 2016). Las TIC
son esenciales dentro de la educación, convirtiéndose en un reto para los docentes,
puesto que los estudiantes en la actualidad tienen destrezas desarrolladas al utilizar los
diferentes dispositivos tecnológicos, esto hace que los docentes se encuentren en continuo
aprendizaje, pasando de ser el transmisor del conocimiento a ser un mentor o guía en el
proceso de aprendizaje. Las TIC, En medio de la educación digital han traído diversas
ventajas como: una mayor motivación presentada por los alumnos, cuando las TIC se ven
involucradas en el día a día de su educación, esto hace que el aprender y la realización
de trabajos y tareas sea mucho más atractiva y amena. Otra ventaja, es el mayor nivel de
cooperación gracias a que los conocimientos adquiridos pueden ser compartidos a través
de las redes y foros. Para los docentes también es una gran ventaja para la organización
de sus clases. La educación digital es esencial para la formación de alumnos e incluso los
docentes, la cual se va desarrollando con el paso del tiempo para que los egresados de
dichas instituciones puedan ser competentes en un ámbito tecnológico y social.
2.3. M-Learning.
Una buena manera de introducir las tecnologías en el aula es a través de actividades de
aprendizaje bien estructuradas donde intervengan los dispositivos móviles, la metodología
que se ocupa de determinar la mejor manera de introducir estos dispositivos en el ámbito
académico es el mobile learning o m-learning (Lindsay, 2016). No obstante, la definición
de m-learning no se ha de limitar exclusivamente en los dispositivos, pues es mucho más
que eso, hace referencia a la ubicuidad de contenidos, y a una conectividad constante. La
M de M-learning hace referencia más a la movilidad del alumnado y de los contenidos,
que a la de los propios dispositivos. Algunas de las ventajas actuales del M-Learning
son: conectividad en todo momento, movilidad con acceso a internet en cualquier lugar,
interacción de varios sentidos con: las pantallas táctiles, los dispositivos intuitivos al
habla y a la escucha, y, aplicaciones móviles educativas y creativas. Permitiendo acceder
a contenidos de calidad y creativos, beneficiando y optimizando el uso del aprendizaje
móvil en el ámbito docente al máximo posible. (Thomas & Munoz, 2016).
3. Materiales y métodos
En la presente sección se describen las fases principales en la que se divide el trabajo
para crear el prototipo y producto final de la aplicación móvil. El proyecto se divide en
dos fases, la primera se realiza el desarrollo de la aplicación para dispositivos Android,
y la segunda fase, se desarrolla el análisis a través de encuestas de satisfacción sobre el
producto final. La elección de las herramientas de software se basa en cuatro criterios:
costo, integración, soporte y rendimiento, como primer momento para la elaboración de
un prototipo. Esto permite tomar en consideración para trabajos posteriores, la norma
ISO/IEC 25010 de calidad del producto de software contemplando sus características de
calidad (ISO/IEC 25010, 2011).
Figura 2 – Modelo 3D en “Sketchup” de una pieza del tablero de ajedrez, llamada Alfil.
Como segundo paso, se procede a crear las seis imágenes marcadores, las mismas
que se usan para crear una base de datos dentro del Target Manager de Vuforia
Developer, en este caso cada imagen representa cada pieza distinta del ajedrez. Las
seis imágenes comprenden un tamaño de 850 pixeles por 1100 pixeles de anchura y
altura respectivamente. El software que se usa para la creación de las imágenes finales es
Macromedia Fireworks, en la que cada imagen final se crea con la mezcla de una imagen
de la pieza y un fondo con forma hexagonal. Se usa el fondo hexagonal en las imágenes
para tener más características en la base de datos final, y así evitar textos adicionales en
cada Image Target. Lo que hace la aplicación es identificar estas imágenes para mostrar
los modelados de las piezas específicas en realidad aumentada. En la figura 3 se observan
las seis imágenes marcadores finales, las mismas que son mostradas cada una en forma
de tarjetas.
El tercer paso consiste en obtener una licencia de Vuforia para luego poder mostrar la
realidad aumentada en la aplicación móvil. Para este trabajo, se obtiene la licencia de
desarrollo gratuita. Esta licencia genera una llave de 380 caracteres, la cual hay que
insertarla en las propiedades de Vuforia al momento de estar desarrollando la aplicación
móvil dentro de Unity. Posterior a esto, se crea una base de datos en el Target Manager
de Vuforia Developer llamada “Ajedrez” para luego subir las seis imágenes marcadores
finales a la plataforma. En esta parte se puede cambiar la anchura y altura de las
imágenes para que sean uniforme. Al finalizar, se muestra la cantidad de características
y puntuación que tiene cada imagen marcador. Entre más características tenga la
imagen marcador, la aplicación tarda menos en reconocerlas. En la figura 4 se muestran
las características que se reconocen en una de las imágenes marcador subida en la
plataforma de Vuforia Developer, las mismas que son representadas de color amarillo
(puntos que bordean la imagen y forman una malla).
Figura 4 – Image Target de una pieza del tablero mostrando las características de la imagen.
3.2. Metodología.
Esta propuesta inicia un desarrollo de estudio mediante el método cuasi-experimental
a través del procedimiento de la encuesta con enfoque cuantitativo como método de
evaluación de la usabilidad de la realidad aumentada y medir los criterios de efectividad,
eficiencia y satisfacción como lo establece la norma ISO/IEC 9241-11. La realidad
aumentada se diferencia de los sistemas habituales por una serie de características que
se toman en cuenta al momento de efectuar la evaluación como las características del
entorno físico, del evaluador y del usuario (Fernández Zumaquero, 2019). El método
DGMM (Método de modelado y recolección de datos) se usa para obtener experiencia
de los encuestados y sus acciones. Dentro de éste, existe una subcategoría llamada
DGM (Método de recolección de datos) que es nuestra metodología fundamental para
la selección de las características de la satisfacción del usuario ya que este método se
basa en las diferentes maneras de seleccionar información y experiencia acerca de las
particularidades destacadas de los consumidores finales y sus actividades como en las
encuestas y entrevistas (Scapin & Law, 2007). Se inicia con la primera fase de consulta
a un grupo formado de manera aleatoria por 25 estudiantes de la Unidad Educativa
“El Libertador”. La primera encuesta refiere al conocimiento del estudiante sobre los
movimientos de las piezas de ajedrez, sin haber usado la aplicación móvil “Jaque-Maitte”,
y la segunda encuesta consiste en evaluar el aprendizaje que le brinda la aplicación a
dicho usuario, después de usar la misma. En la figura 6, se muestra el consolidado de
las respuestas correctas e incorrectas de los encuestados que participaron en esta fase:
4. Resultados
Uno de los propósitos fundamentales de la realidad aumentada es captar de manera
inmediata el patrón de reconocimiento y superponer el objeto o modelo en el mundo
real por medio de la cámara de un dispositivo y lograr la virtualización deseada.
Para un reconocimiento óptimo de las imágenes patrones, se realiza un análisis,
para poder comprender el algoritmo de valoración que ofrece Vuforia SDK sobre
las características de cada imagen patrón. En esta fase, se utiliza como imágenes
marcadoras, Image Targets de tipo Logo, ya que por la gran cantidad de características
que se obtiene desde el inicio, no necesita agregarle formas ni textos adicionales
para alcanzar una mayor puntuación en Vuforia, gracias al fondo hexagonal que se
establece en cada uno de los Image Target, a estas imágenes se las conoce como
marcadores ideales. La tabla 1 muestra la cantidad de características de los Images
Target brindadas por Vuforia.
Nombre de
Tipo Selección Características Puntaje
Image Target
Figura 7 – Calificaciones de la asignatura de Ajedrez, para el Curso 2do “A”, sobre diez puntos.
Figura 8 – Pregunta No. 2 de la encuesta, detalla las diferentes opiniones del encuestado, en
porcentajes, referente al aprendizaje con realidad aumentada.
efectuar este método de enseñanza con el dispositivo móvil usando realidad aumentada
mejora el promedio del paralelo a 9/10.
En la última fase de este trabajo, la versión final del aplicativo fue liberado para su
evaluación, se realiza una encuesta a 400 estudiantes que tengan instalada la aplicación
en el dispositivo móvil de sus padres, el resultado de la experiencia al usar nuestra
aplicación se muestra más adelante de este documento.
En la figura 8, se observa que la mayoría de los encuestados indican que la realidad
aumentada puede generar nuevas formas de aprendizaje.
La figura 9 presenta la facilidad al usar la aplicación desarrollada, el 88% de los
encuestados indican que ha sido fácil en el momento de usarla.
Figura 10 – Pregunta No. 4 de la encuesta, muestra el interés por el contenido seleccionado para
su uso.
Figura 11 – Pregunta No. 5 de la encuesta, indica la valoración del contenido visual observado.
5. Conclusiones
En este artículo se manifiesta un modelo de aplicación móvil para fortalecer la educación
con una nueva forma de aprendizaje y a su vez cultivar el conocimiento de los usuarios
finales con información de audio e imágenes estructuradas al estudiar el ajedrez. La
tecnología digital no nos deja de sorprender, y su fomento en la parte educativa, sin lugar
a duda sigue en crecimiento a gran escala. La realidad aumentada en aplicaciones es algo
llamativo por parte del usuario que, al unirlo con un tema de interés, como en este caso,
la educación digital y la gamificación, logra captar la atención de muchos estudiantes.
La innovación es un motor en el ámbito educativo y la incorporación de dispositivos
tecnológicos adecuados junto al desarrollo de aplicaciones creativas con buen contenido
visual, motiva al logro de procesos de enseñanza y de aprendizaje más eficaces, es
imperante realizar mejoras para que el servicio brindado por dichas aplicaciones sea
más atractivo y fácil para la experiencia del usuario final al momento de usarla. Se realiza
satisfactoriamente la aplicación móvil para fortalecer el conocimiento del área educativa
en cuestión y, las experiencias analizadas por los encuestados tuvieron una reacción
de manera favorable. Con esto se pudo demostrar, la adquisición de conocimientos
del ajedrez, a través de una aplicación móvil innovadora en el área educativa, dando
paso a futuros trabajas motivando interés en una asignatura determinada y mejorando
el desarrollo del aprendizaje por parte de los estudiantes gracias a la aplicación móvil
“Jaque-Maitte”.
Referencias
Akçayır, M., & Akçayır, G. (2017). Advantages and challenges associated with augmented
reality for education: A systematic review of the literature. Educational Research
Review, 20, 1–11. [Link]
Banchoff Tzancoff, C. M., Martin, E. S., López, F., & Alfano, A. (2015). Uso de TICs en
la escuela primaria: nuevas propuestas para temas tradicionales. Retrieved from
[Link]
Scapin, D. e Law, E. 2007. R3UEMs: Review, Report and Refine Usability Evaluation
Methods. The 3rd COST294-MAUSE International Workshop. Atenas, Grécia.
Disponível em [Link]
Thomas, & Munoz. (2016). Hold the Phone! High School Students’ Perceptions of
Mobile Phone Integrati...: EBSCOhost. American Secondary Education 44(3)
Summer 2016. Retrieved from [Link]
[Link]/ehost/pdfviewer/pdfviewer?vid=2&sid=c17a67da-d581-4676-a83b-
f8ed6ae5d213%40sessionmgr103
Williamson, B. (2016). Digital education governance: data visualization, predictive
analytics, and ‘real-time’ policy instruments. Journal of Education Policy, 31(2),
123–141. [Link]
1
Docente agregado Universidad Técnica Particular de Loja, San Cayetano Alto, 593 7301444, Loja, Ecuador.
2
Profesora investigadora Tecnologico de Monterrey, Avda. Garza Sada 2501 Sur. Col Tec. Monterrey, 52 81
2358 2000, Monterrey, México.
3
Profesor titular Universidad de Salamanca, Paseo de Canalejas 169, 37008, Salamanca, España.
4
Profesor titular Universidad Santiago de Compostela, Campus Universitario Sur, 15706, Santiago de
Compostela, España.
Pages: 134–146
student’s subjective perception with respect to the execution of the activity. For data
collection purposes, a questionnaire was applied to students of Artificial Intelligence
in the University Technical Particular of Loja Open Modality. The model showed
that collaborative work accounts for 56.7% of social construction of knowledge,
illustrating two fundamental aspects of collaborative work: a) communication
fluency and b) teacher assistance. The contribution of the study lies on the area of
social construction of knowledge in online environments, which can be replicated
in other types of environments (face-to-face, multimodal, b-learning, m-learning).
Keywords: Collaborative learning; collaborative work management; social
construction of knowledge.
1. Introducción
El aprendizaje colaborativo describe “una situación en la cual se espera que ocurran
formas particulares de interacción, que conllevarán a mecanismos de aprendizaje, pero
que no hay una garantía total que estas condiciones ocurran efectivamente” (Collazos,
Muñoz, & Hernández, 2014, p.11). Además, estos autores puntualizan que “este tipo
de aprendizaje no se opone al trabajo individual ya que puede observarse como una
estrategia de aprendizaje complementaria que fortalece el desarrollo global del alumno”
(p.9). El aprendizaje colaborativo se caracteriza por: a) una interdependencia positiva;
b) interacción promotora; c) responsabilidad individual y grupal; d) desarrollo de las
competencias de trabajo en equipo; y, e) valoración del grupo (Johnson, Johnson, &
Smith, 1998). Los integrantes de la Red sobre Aprendizaje Colaborativo en Entornos
Virtuales (RACEV) establecen una definición de aprendizaje colaborativo en entornos
virtuales, según la cual “el aprendizaje colaborativo se basa en un proceso de actividad,
interacción, y reciprocidad entre los estudiantes, facilitando la construcción conjunta
de significados y un avance individual hacia niveles superiores de desarrollo” (Guitert
& Pérez-Mateo, 2013, pp.24-25). Así pues, el aprendizaje colaborativo tiene como fin la
construcción de significados individuales y grupales producto del diálogo, la negociación
y la toma de decisiones y, por tanto, es altamente dependiente de la calidad del trabajo
colaborativo desarrollado.
2. Método
La recopilación de datos para la presente investigación se la hizo a través de un
cuestionario estructurado autoadministrable, que abarca cuatro componentes. El
cuestionario fue aplicado a los alumnos de la Universidad Técnica Particular de Loja,
Modalidad a Distancia, matriculados en la asignatura de Inteligencia Artificial. El
cuestionario fue administrado online. La asignatura se implementó coordinadamente
durante un semestre (abril-agosto/2018), en un diseño de trabajo colaborativo
basado en la resolución de casos; más concretamente, los estudiantes tuvieron que
2.1. Análisis
El indicador de desempeño se desarrolló a partir de las respuestas de los alumnos a 9
ítems dicotómicos, correspondientes a las 9 actividades llevadas a efecto en la AC. Para
cada uno de los ítems, los alumnos debían indicar si dicha actividad les había permitido
lograr aprendizajes significativos para llegar a la solución del caso y/o para entender y
aplicar la temática propuesta en el mismo.
En primer lugar, se analizó la relación existente entre las respuestas proporcionadas
por los estudiantes a los 9 ítems, empleando la prueba chi-cuadrado, así como el
coeficiente de correlación Phi (φ) de Pearson. Una vez comprobadas estas relaciones
bivariadas, los 9 ítems fueron sometidos a un análisis de correspondencias múltiple
(Gifi, 1990; Greenacre, 1991). El análisis de correspondencias múltiple permite resumir
las relaciones existentes entre un conjunto de variables nominales a las distancias
entre puntos en un espacio de baja dimensionalidad (en el caso, 2 dimensiones), de tal
modo que las coordenadas de estos puntos en el espacio pueden ser interpretadas como
cuantificaciones métricas de las relaciones no métricas existentes entre las variables
originales; esto permite expresar mediante variables cuantitativas las propiedades
subyacentes a las relaciones existentes entre los 9 ítems dicotómicos.
Una vez que se obtuvo la solución del análisis de correspondencias, ésta fue empleada
para estudiar la relación entre los 9 ítems y otras variables categóricas del instrumento
aplicado, con el fin de comprobar si estas variables estaban relacionadas con los
indicadores de desempeño. Finalmente, las coordenadas proporcionadas por la
solución del análisis de correspondencias múltiple fueron empleadas como variables
dependientes en sendos análisis de regresión lineal múltiple, tomando como predictores
las dimensiones del modelo teórico general. Los resultados de estos análisis permitieron,
por un lado, interpretar las dimensiones de la solución del análisis de correspondencias
múltiple, y por otro, determinar los factores responsables de un mejor o peor aprendizaje
y/o resolución del problema planteado en la AC.
3. Resultados
La inspección de las frecuencias esperadas y observadas de la tabla de contingencia
permitió conocer el tipo de relación existente entre los ítems, mientras que el coeficiente
φ proporcionará una cuantificación de esta relación.
Actividades 2 3 4 5 6 7 8 9
1. Rev. Bib. propuesta por docente .201 .286** .151 .226* .109 .018 .172 .408***
2. Rev. Bib. propuesta por grupo .163 .479 ***
.556 ***
.245 *
.183 .340 **
.132
3. Búsqueda y selec. recursos web .121 .235* .369** .207 .225* .405***
4. Discusión en grupo .603 ***
.403 ***
.366 **
.499 ***
.164
5. Conclusiones del grupo .577*** .387*** .384*** .200
6. Elab lectura y revisión inf. Final .394 ***
.452 ***
.259*
7. Lectura trabajos otros grupos .345** .186
8. Retroalimentación del docente .193
9. Iniciativa personal 1.00
* p<.05; ** p<.01; *** p<.001
Así pues, este modelo mejorado ha mostrado mayor ajuste que el modelo previo, con
autovalores e índices de consistencia interna superiores. Además, la incorporación de
una nueva variable al mismo no ha alterado significativamente las relaciones existentes
previamente entre las variables del modelo. Por otro lado, la nueva variable muestra una
fuerte asociación con ambas dimensiones, por lo que contribuye a mejorar el modelo en
su totalidad.
En la Figura 2 se muestra la solución bidimensional proporcionada por el nuevo modelo.
Puede apreciarse que no existen diferencias en las posiciones de las respuestas de los
estudiantes a los 9 ítems dicotómicos En cuanto a la nueva variable introducida (fluidez
en la comunicación) en el modelo, se constata que las condiciones de baja fluidez en
la comunicación están asociadas al incumplimiento de los indicadores de desempeño
en las 9 actividades (zona derecha), mientras que las condiciones de alta fluidez están
asociadas al cumplimiento de éstas (zona izquierda).
Dimensión
1 2
Conclusiones a las que se llegó en el grupo. ,668 ,022
Discusión en el grupo. ,599 ,089
Elaboración, lectura y revisión del informe final. ,490 ,003
Retroalimentación del docente encargado de la asignatura. ,411 ,011
Revisión bibliográfica propuesta por alguno de los integrantes del grupo. ,388 ,012
Lectura de los trabajos realizadas por otros grupos. ,307 ,036
Iniciativa personal. ,184 ,404
Revisión bibliográfica propuesta por el docente encargado de la asignatura. ,134 ,383
Búsqueda y selección de recursos disponibles en la Web. ,212 ,247
Fluidez de la comunicación entre las personas que formaron parte del grupo ,530 ,440
Total active 3,922 1,646
la AC. Se empleó un método de selección de predictores por pasos sucesivos (Draper &
Smith, 1998). El análisis retuvo dos predictores: construcción social del conocimiento
y comunicación entre los miembros del grupo. La proporción de varianza explicada
conjuntamente por ambos predictores fue del 66%, lo que puede considerarse un valor
satisfactorio. En la Tabla 3 se muestra los coeficientes de regresión y determinación, así
como el error típico de estimación para cada uno de los pasos del procedimiento.
Tabla 3 – Resumen del modelo de regresión lineal por pasos sucesivos. Variable dependiente:
coordenadas de las personas en la dimensión 1 de la solución del análisis de correspondencias
múltiple
Tabla 4 – Resumen del modelo de regresión lineal por pasos sucesivos Variable dependiente:
coordenadas de las personas en la dimensión 2 de la solución del análisis de correspondencias
múltiple
Como resumen de los resultados obtenidos, ambos análisis indican que, de modo general,
los mejores predictores del desempeño en una tarea colaborativa son, en este orden, la
construcción social del conocimiento y el grado de comunicación entre los miembros del
grupo. Por otra parte, se estable una diferencia entre desempeño individual y desempeño
grupal, este último mejora en función del grado de comunicación con el líder, mientras
que el desempeño individual mejora en función del grado de presencia social que tiene el
alumno focal en el grupo, así como de su grado de comunicación con el profesor.
4. Discusión y conclusiones
Los resultados obtenidos en el presente estudio ponen de manifiesto que la construcción
social del conocimiento en la AC estuvo fuertemente relacionada con el grado de
fluidez presente en la comunicación entre los integrantes del equipo, coincidiendo
en este sentido con lo que señalan Guitert & Pérez-Mateo (2013), cuando mencionan
que la interacción y la reciprocidad facilitan la construcción conjunta de significados.
Asimismo, y como sería de esperar, aquellos indicadores de desempeño no asociados
con el trabajo colaborativo mostraron menos dependencia del grado de comunicación
que los que sí estaban asociados.
Este resultado pone de manifiesto dos aspectos fundamentales en la ejecución de un
trabajo colaborativo: 1. Dado que la mayoría de las actividades en este tipo de trabajo
son grupales, la fluidez de la comunicación será un factor determinante, por lo que
garantizar dicha fluidez se convierte en una condición indispensable para el éxito de éste,
corroborando lo planteado por Collazos, Muñoz, & Hernández (2014). Por el contrario,
la escasez o falta de fluidez en la comunicación se convierte en un factor determinante
del fracaso del trabajo colaborativo, pero no constituye un obstáculo para el desempeño
individual. Adicionalmente, nuestros resultados también ponen de manifiesto que la
presencia de un líder eficaz y comunicativo dentro del grupo es esencial para el éxito del
desempeño grupal. 2. A pesar de que la característica fundamental de las actividades
colaborativas es el trabajo con otros, este tipo de actividades también precisa de cierto
grado de desempeño individual, algo ya señalado por (Johnson et al., 1998). En este
sentido, otro tipo de factores que van a afectar al éxito o fracaso de dicha actividad
son, por este orden, la iniciativa personal del alumno, el uso de herramientas externas
a la actividad en grupo y a la influencia del líder, y la asistencia proporcionada por
el profesor, como lo mencionan (Mayordomo & Onrubia, 2015). Así pues, al llevar a
cabo este tipo de actividades es necesario ser consciente de la importancia que tiene el
docente en su papel de acompañar, mediar y orientar a los alumnos en su trabajo, y no
dejarlo todo a las interacciones entre los alumnos, o a la dirección del líder del grupo.
También es necesario tener en cuenta los factores personales de los alumnos, por lo que
tampoco es conveniente apoyarse únicamente en el grupo como un todo, sino también
fomentar la iniciativa individual y la investigación fuera del grupo. Es muy probable
que la atención a estas características de iniciativa dentro del grupo de alumnos pueda
resultar útil también para el trabajo del grupo como un todo, por ejemplo, para la
selección de líderes.
Como conclusión, los resultados de este estudio animan a seguir investigando la incidencia
del trabajo colaborativo y del trabajo individual en la construcción del conocimiento
del estudiante, lo que apoyará para identificar de qué manera se debe gestionar el
aprendizaje con la participación, interacción y la ejecución del trabajo colaborativo. Por
otro lado, el bajo poder predictivo de nuestro segundo modelo de regresión múltiple
viene a indicar que todavía quedan por identificar otros factores responsables de un
mayor desempeño individual o grupal.
Sería interesante replicar el presente trabajo en una muestra mayor y por un período más
largo de tiempo para ratificar o rectificar los hallazgos encontrados, y así determinar si
el trabajo colaborativo es realmente una estrategia de aprendizaje para la construcción
social del conocimiento, así como profundizar en la interdependencia entre un buen
Referencias
Coll, C. (1984). Estructura grupal, interacción entre alumnos y aprendizaje escolar.
Infancia y Aprendizaje, (27), 119–138. Retrieved from [Link]
es/servlet/extart?codigo=668449%5Cn[Link]
articulo/[Link]
Collazos, C., Muñoz, J., & Hernández, Y. (2014). Aprendizaje Colaborativo Apoyado
por Computador (1ra. Ed. I). LATIn. Retrieved from [Link]
book/aprendizaje-colaborativo-apoyado-por-computador
Draper, N. R., & Smith, H. (1998). Applied regression analysis. Third edition.
New York: Wiley.
Espuny, C., González, J., LLeixá, M., & Gisbert, M. (2011). Actitudes y expectativas del
uso educativo de las redes sociales en los alumnos universitarios. RUSC. Revista de
Universidad y Sociedad Del Conocimiento, 8(1), 171–184. [Link]
CBO9781107415324.004
Garrison, R., Anderson, T., & Archer, W. (2000). Critical Inquiry in a Text-Based
Environment: Computer Conferencing in Higher Education. The Internet and Higher
Education, 2(2–3), 87–105. [Link]
Gifi, A. (1990). Nonlinear multivariate analysis. Chichester: Wiley.
Greenacre, M. J. (1991). Interpreting multiple correspondence analysis. Applied
Stochastic Models and Data Analysis, 7(2), 195–210. Retrieved from
[Link]
Guitert, M., & Pérez-Mateo, M. (2013). La colaboración en la red: Hacia una definición
de aprendizaje colaborativo en entornos virtuales. Tesi, 14(1), 10–31. Retrieved
from [Link]
Ingles, C. J., Aparisi, D., Delgado, B., Torregrosa, M. S., & Garcia-Fernandez, J. M.
(2017). Sociometric types and academic self-concept in adolescents. Psicothema,
29(4), 496–501. [Link]
Johnson, D. W., Johnson, R. T., & Smith, K. A. (1998). Active learning: cooperation in
the college classroom. (I. B. Company, Ed.).
Mayordomo, R. M., & Onrubia, J. (2015). Work coordination and collaborative knowledge
construction in a small group collaborative virtual task. Internet and Higher
Education, 25(2015), 96–104. [Link]
Noguera, I., & Gros, B. (2014). Indicadores para la construcción de prácticas colaborativas
en entornos virtuales de aprendizaje / Indicators to develop collaborative practices
in online learning. Revista Latinoamericana de Tecnología Educativa - RELATEC,
13(1), 51–62. Retrieved from [Link]
article/view/1155
Pedrosa, I., Borges, Á., Herranz, N., Lorenzo, M., & García-Cueto, E. (2013). Desarrollo
del Protocolo de Observación de Interacción en el Aula: aplicación en un programa
de niños con altas capacidades. Revista de Educación, Extra1(1), 338–362.
[Link]
Ramos Gonçalves, D., & Vieira da Silva, M. C. (2019). Formación de profesores e
identidad profesional: la contribución del trabajo colaborativo en educación.
Profesorado, Revista de Currículum y Formación Del Profesorado, 23(2).
[Link]
Roselli, N. (2011). Teoría del aprendizaje colaborativo y teoría de la representación
social: convergencias y posibles articulaciones. Revista Colombiana de Ciencias
Sociales, 2(2), 173–191.
Elizabeth Morales-Urrutia1, José Miguel Ocaña Ch2, Jorge Luis Santamaría Aguirre3,
Diana Pérez-Marín4.
1
Universidad Técnica de Ambato, Ecuador, 182020, Ambato, Ecuador .
2.
Ejército Ecuatoriano, Ecuador, 182020, Ambato, Ecuador.
3
Universidad Técnica de Ambato, Ecuador, 182020, Ambato, Ecuador .
4
Universidad Rey Juan Carlos, España, 28933, Madrid, España.
Pages: 147–160
1. Introducción
En décadas recientes, las preferencias de los usuarios se ha convertido en factor que
incide a la hora de generar o crear un diseño, esto se ha visto reflejado en diferentes
medios tales como revistas, libros, aplicaciones digitales, entre otros. Con el pasar del
tiempo el factor humano ha realizado importantes aportes a la calidad del producto y
facilidad de uso, tomando como referencia principal el grado de satisfacción del usuario.
En este sentido, algunas industrias han elaborado diseños en función de la relación
existente entre las necesidades de Maslow (2012) y factores como la funcionalidad,
usabilidad y el placer.
En las últimas décadas, los seres humanos contribuyen a la creación de usabilidad y de
establecer una serie de principios que deberá contener el diseño para que sea fácil de
utilizar (Jordan, 1998), A este respecto, el gran desafío al que se enfrenta el ser humano
es desarrollar productos que puedan generar diferentes emociones y sentimientos en las
personas (Hollan, Hutchins y Kirsh, 2000).
En la actualidad, se investiga tecnologías educativas y metodologías adecuadas para
desarrollar competencias digitales que promuevan el pensamiento lógico por medio de la
enseñanza de programación. Una de estas tecnologías son los Agentes Conversacionales
Pedagógicos (ACPs), que se pueden definir como sistemas interactivos que permiten
a los estudiantes repasar de una forma entretenida y amigable, a su vez éstos están
considerados como una entidad viviente artificial que son diseñados con la finalidad de
tener conversaciones con seres humanos reales, conversaciones que pueden ser llevadas
a cabo vía texto, de forma oral o incluso una conversación no verbal (Johnson, Rickel y
Lester, 2000).
Siendo el objetivo principal de este estudio el desarrollar un Agente Conversacional
Pedagógico para enseñar programación en Educación Primaria en la presente
investigación se trabajará con ALCODY, cuyo nombre representa (Algoritmos -Código),
agente que aproximará a los usuarios y en especial a los niños a la toma de decisiones y
desarrollo del pensamiento lógico es por ello que para el diseño del agente se integra a
los niños en el proceso creativo para el desarrollo del personaje a través del co-diseño,
con el fin de construir un agente con rasgos y características que los niños identifiquen y
que finalmente puedan empatizar con su personalidad.
En esta investigación, se ha tomado como referencia al co-diseño como apoyo al diseño
a través de la retroalimentación por parte del usuario, en este caso las historias creadas
por los estudiantes de educación básica, ya que no hay precedentes en el diseño de
agentes pedagógicos conversacionales para el apoyo en la enseñanza de programación.
Los resultados obtenidos con los estudiantes permiten configurar al agente pedagógico
conversacional, mediante el análisis morfológico de los rasgos y características detectadas
en los diferentes textos escritos y en el proceso de retroalimentación en la co-creación
del personaje con la ayuda de los niños.
Este artículo está compuesto de siete apartados. Partiendo desde la introducción como
primer apartado que nos aproxima a la problemática, en el segundo apartado se aborda
el estado del arte basado en la revisión existente de literatura sobre usabilidad, diseño y
co-diseño; tomando en cuenta la no existencia de referentes sobre la creación de agentes
conversaciones para el apoyo interactivo en clase y sobre todo enfocado a la enseñanza
de programación. En el tercer apartado se establece la metodología desarrollada en el
co-diseño del agente conversacional pedagógico, en el cuarto apartado se exponen los
resultados obtenidos de la experiencia de los textos escritos, en el quinto apartado se
muestra la propuesta de diseño, en el sexto apartado se muestran las conclusiones y
trabajo a futuro de la aplicación y los aspectos de interés encontrados en el co-diseño y
finalmente en el apartado siete se recoge la bibliografía.
2. Trabajos relacionados
2.1. Usabilidad
En el campo del diseño, la usabilidad es un término ya conocido y aplicado como un
proceso que presenta métricas para su evaluación que dependen de la efectividad,
eficiencia y satisfacción. Mientras que como producto descansa en la facilidad para
aprender, recordar, y operar, además de resultar atractivo (González, Montero y
Gutiérrez, 2012). El reto en los procesos de diseño está en identificar, evaluar y detectar
los aspectos hedónicos de los procesos interactivos, y de cómo poder diseñar un sistema
que haga al usuario “sentirse bien” y genere en él “afinidad”, “fidelidad” o “complacencia”,
aparte de que el grado de belleza estética, diseño visual, colores o estilo de la marca sean
del agrado de éste (Jordan, 1998).
En el diseño de un producto ya sea físico o digital, se debe tomar en cuenta algunos
aspectos tales como: usabilidad, integración e interacción que generan entre la aplicación
y los usuarios, para Human Computer Interaction (HCI) la usabilidad se relaciona en
hacer que los sistemas sean fáciles de aprender y fáciles de usar (Preece et al., 1994)
y se distingue de la noción de “experiencia del usuario”, que abarca un conjunto más
amplio de preocupaciones, tales como crear sistemas que sean satisfactorios, divertidos,
entretenidos, útiles, estéticamente agradables, de apoyo a la creatividad, gratificante o
emocionalmente satisfactorios, que permitan en la actualidad el desarrollo optimizado
en todos los dispositivos basados en tecnologías modernas tangibles e intangibles (Wong
y Khong, Chee Weng y Thwaites, 2012), los investigadores de HCI reconocieron que para
producir sistemas con buena usabilidad, era necesario entender aspectos psicológicos,
factores ergonómicos, organizativos y sociales que determinan cómo operan las personas,
y para considerar el trabajo grupal, integración e interacción de los medios, así como los
impactos más amplios de las tecnologías informáticas (Kukulska-Hulme, 2004).
Al hablar de diseño y usabilidad es importante conjugar los términos de cognición y
ergonomía enfocados a la interacción entre persona e interfaz. Los procesos cognitivos,
como percepción, aprendizaje o solución de problemas juegan un papel importante en la
ejecución de tareas cognitivas, tales como la búsqueda de información y su interpretación,
la toma de decisiones y la solución de problemas (Cañas y Waerns, 2001). Por su lado,
Preece (2000) había pasado a considerar la usabilidad en el contexto de las comunidades
en línea, concluyendo que “... el software con buena usabilidad admite aprendizaje
rápido, alta retención de habilidades, bajas tasas de error y alta productividad”. Además,
dentro del diseño es necesario considerar una interfaz que permita fluidez de contenidos
y sea invisible en el contexto de uso para no afectar la experiencia del usuario (Hadler,
2018), (Badashian et al., 2011), (Roth, 2017). En la actualidad se encuentran ejemplos
de proyectos enfocados al aprendizaje y al diseño de interfaz de usuario en diversos
ámbitos de la educación y de la formación de los niños (Martínez y Cely, 2018).
los sistemas interactivos más útiles centrándose en el uso del sistema y la aplicación
de factores humanos/ergonomía y conocimiento y técnicas de usabilidad”, de tal forma
que se pretende agrupar una mayor cantidad de percepciones por parte del usuario
y no solamente tener en cuenta la funcionalidad del sistema. Por su parte, Bonsiepe
(2012) menciona que una interfaz debe “ser aprendida rápidamente, con un bajo nivel
de frustración” (p.110). Del mismo modo, el estándar ISO 9241-210 describe el beneficio
potencial de seguir un enfoque de diseño que mejore la usabilidad y los factores
humanos: “Los sistemas utilizables pueden proporcionar una serie de beneficios,
incluyendo una mejor productividad, mayor bienestar para el usuario, evitar el estrés,
mayor accesibilidad y menor riesgo de daños” (Mirnig et al., 2015).
En los procesos de co-diseño, la intervención de los socios del diseño es fundamental,
es así que, a la hora de diseñar el criterio de los usuarios es de importancia, sean estos
adultos o niños. En este sentido, Druin (1997) afirma que el trabajar con niños posibilita
el desarrollo de un entorno de acercamiento que apoya a las actividades del aprendizaje
de éstos. En los primeros acercamientos de su investigación los niños se sentían atraídos
por contar historias mediante el uso de dibujos o escritos. A través de estas actividades
desarrollaron y ejercitaron habilidades de alfabetización visual y verbal, y al mismo
tiempo permitieron generar cierta competencia con el uso de las nuevas tecnologías. En
el diseño de prototipos gráficos, los niños se convirtieron en catalizadores y generadores
de ideas en las que no se había pensado antes y definitivamente cambiaron la dinámica
de grupo y de los diseños (Druin et al., 1997).
En los últimos años, se han desarrollado numerosas metodologías que llevan a los
usuarios de tecnología al proceso de desarrollo, convirtiéndolos en socios activos para
la construcción de propuestas (Bjerknes, Ehn y Kyng, 1987); (Greenbaum y Kyng,
1991), (Schuler y Namioka, 1993), inspectores o probadores (Nielsen, 1995), (Nielsen,
1994), o participantes de investigación para ser observados y / o entrevistados (Beyer y
Holtzblatt, 1998), (Druin et al., 1997), (Holtzblatt et al., 1995), (Chan, Kah & Easterly,
Douglas, 2009), (Ayuningtyas & Effendy, Veronikha & Kaburuan, Emil, 2018). Todas las
metodologías parten de una visión proyectual y trabajo en equipo con el fin de buscar
soluciones que integren la opinión de todos los participantes.
Para Manzini (2015) “todo diseño es (o debería ser) una actividad de investigación en sí
misma que promueva experimentos socio-técnicos”. Druin (1999) puso de manifiesto que
el mejor ambiente de co-diseño con los niños es el que se da de manera natural, ya sea a
través de patrones de actividades y roles de juego, lo cual se diferencia del co-diseño con
adultos. En algunos casos en los estudios que abarca la tecnología se observa que los niños
quieren ser narradores de historias, asimismo, se ha encontrado que los niños de 7 a 10
años son la mejor alternativa (Druin et al., 1999), debido a que son lo suficientemente
verbales y auto reflexivos para discutir lo que están pensando. No parecen estar demasiado
agobiados por nociones preconcebidas sobre la forma en que “se supone que deben ser
las cosas”, algo que típicamente vemos en niños mayores de 10 años (Druin et al., 1999).
Como explican Greenbaum y Kyng (1991) coinciden en la “la necesidad de que los usuarios
se conviertan en socios plenos en el proceso de desarrollo del sistema cooperativo. La
plena participación de los usuarios requiere capacitación y cooperación activa, no solo
representación simbólica”; siendo los dos ejes fundamentales desde el ámbito de diseño
al momento de desarrollar una interfaz (Bonsiepe, 2012, p. 101). En estudios recientes
la estrategia de trabajo y metodología con los niños es más frecuente, teniendo mayor
relevancia la interacción con las experiencias y percepción de los niños (Chan y Easterly,
2009), (Birch et al., 2017) y (Kleinsmann, Sarri y Melles , 2018), en los que el uso
de focus group, análisis de experiencias previas y la etnografía son caminos para la
obtención de información relevante.
3. Metodología
Para el co-diseño del agente con los niños se desarrollan las siguientes etapas:
–– Toma de información de los requerimientos de los docentes
–– Primera propuesta de diseño basado en los requerimientos de los docentes.
–– Co-diseño con los estudiantes.
–– Segunda propuesta de Diseño basado en los requerimientos de los estudiantes.
Como primera etapa en el diseño de la interfaz para el análisis de requisitos, se entrevistó a
docentes de una escuela de Educación Primaria en Madrid - España, donde plantearon rasgos
iniciales del agente conversacional pedagógico, de acuerdo con su visión y que es el punto
de partida para la presente investigación. Estos manifestaron que el agente conversacional
debería presentar una estructura sencilla constituida por formas básicas y que tuviera colores
pasteles. En la segunda etapa el diseño inicial que se presentó tenía el aspecto que se muestra
en la Figura 2, el personaje fue creado con formas geométricas simplificadas.
De las historias creadas por los niños se puede extraer las características implícitas en
los textos para el co-diseño, como se observa en el texto (Figura 4)
4. Resultados
De las historias creadas por los niños en la etapa de la propuesta, se realizó un análisis
más profundo para contextualizar las historias contadas, para esto se optó por el método
de análisis de contenidos para extraer ideas y atributos que sirvan para el desarrollo
Los rasgos generales que se destacan de los resultados obtenidos en la (Tabla 2), definen
la personalidad y rasgos formales del agente conversacional ALCODY como: ordenador
antropomorfo, masculino, paleta de colores, deportista, que hable, con aspecto humano,
normal y amigable. Los rasgos aproximan la propuesta de diseño con una cabeza, tronco
y extremidades como base para el diseño; además se toma en cuenta que el carácter del
personaje debe ser calmado y que realice actividades humanas como el deporte, y que
debe comunicarse con los niños en un tono amigable.
Características
Personaje Género Color Estado de Ánimo
del Personaje
ordenador (25) *no define (34) *no define (54) deporte (7) normal (22)
persona (19) masculino (20) varios colores (5) *no define (6) amigable (15)
robot (7) femenino (7) Rosado (2) Hablar (5) *no define (8)
Características
animal (6) humanas (brazos, feliz (5)
boca, piernas) (4)
característica de
transporte (2) asombro (2)
animales (2)
bailar (2) preocupado (2)
sorprendido (2)
triste (2)
mensajes positivos (1)
agresividad (1)
Nota: * Son valores cuantitativos representativos de la muestra, pero no tienen valor cualitativo.
El género está presente en una ambivalencia de masculino y femenino (Tabla 3), siendo
el primero el que logró mayor puntaje, esto finalmente no tendrá impacto de sesgo para
el diseño, para evitar un posible condicionamiento a factores culturales preexistentes en
los niños.
Género Color
masculino (20) femenino (7)
varios colores (5) Rosado (2)
Tabla 4 – Personalidad
Se ha decidido optar por los rasgos más aparentes para una comunicación no verbal para
el agente pedagógico conversacional como: deberá tener una cara expresiva, deberá tener
brazos que le permita realizar actividades y comunicarse con los usuarios de la aplicación.
5. Propuesta
Descripción del co-diseño del agente conversacional pedagógico con niños para que
les enseñe a programar, el análisis de la percepción de los estudiantes con respecto al
agente pedagógico conversacional dio paso al co-diseño del personaje, obteniendo una
nueva versión (Figura 6), adaptada a las preferencias y sugerencias de los niños.
5.3. Entorno
El entorno va asociado a la personalidad de Alcody, por tanto, se hace un cambio de
espacios muy coloridos y saturados de la primera versión hacia un entorno más limpio
pero que denota tecnología donde se manejan líneas y formas muy sutiles que no
interfieren con las actividades lúdicas del personaje y el usuario. Los fondos son neutros
y se prioriza los espacios de información con textos simples contrastantes e ilustraciones
coloridas. A cada tipo de información se le asigna un color para ser identificado con
mayor facilidad y rapidez. Para la interfaz de comunicación entre el usuario y el
agente pedagógico, se analiza la experiencia de los niños relacionada con la forma de
comunicarse por medio de aplicaciones digitales, de los textos escritos analizados se
observa la estructura de un chat; la misma que ha servido de base para el diseño de la
nueva interfaz que se muestra en la Figura 8.
Referencias
Ayuningtyas, O & Effendy, Veronikha & Kaburuan, Emil. (2018). User Interface modelling
by implementing storytelling on Sudanese cultural introduction media for early
childhood using child - centered design method. IOP Conference Series:Materials
Science and Engineering, 434.
Andersen, L. B., Danholt, P., Halskov, K., Hansen, N. B., & Lauritsen, P. (2015).
Participation as a matter of concern in participatory design. CoDesign, 250–261.
Badashian, A. S., Mahdavi, M., Afzali, S. H., & Zabardast, Z. (2011). Supporting Multiple
Categorization using Conceptual File Management. American Journal of Scientific
Research, 192–136.
Beyer, H. y Holtzblatt, K. (1998). Contextual design. defining customer-centered
systems. San Francisco. CA: Morgan Kaufmann.
Bjerknes, G. Ehn, P. y Kyng, M. (1987). Computers and democracy: A Scandinavian
challenge. UK. Alebury: Aldershot.
Birch, J., Parnell, R., Patsarika, M., & Šorn, M. (2017). Creativity, play and transgression:
children transforming spatial design. CoDesign, 245–260.
Bonsiepe, G. (2012). Diseño y crisis. Valencia: Campgráfic
Cañas, J. J. y Waerns, Y. (2001). Ergonomía cognitiva: aspectos psicológicos de
la interacción de las personas con la tecnología de la información. Médica
Panamericana.
Chan, Kah & Easterly, Douglas. (2009). Understanding Empathy in Children Through
3D Character Design. In DiGRA Conference.
Druin, A. Stewart, J. Proft, D. Bederson, B. y Hollan, J. (1997). KidPad: A design
collaboration between children, technologists, and educators. In Proceedings of
Human Factors in Computing Systems. (CHI 97) ACM Press, 463–470.
Druin, A. Bederson, B. Boltman, A. Miura, A. Knotts-Callahan, D. y Platt, M. (1999).
Children as our technology design partners. The design of children’s technology.
San Francisco: CA: Morgan Kaufmann, 51–72.
González-Sánchez, José-Luis; Montero-Simarro, Francisco; Gutiérrez-Vela, Francisco-
Luis. (septiembre-octubre de 2012). Evolución del concepto de usabilidad como
indicador de calidad del software. En el profesional de la información, 529–536.
Greenbaum, J. y Kyng, M. (1991). Design at work: Cooperative design of computer
systems. Hillsdale, NJ: Lawrence Erlbaum.
Hassenzahl, M. 2013. «User experience and experience design» The Encyclopedia of
Human-Computer Interaction.
Hadler, F. (2018). Interface critique. Editorial–Beyond UX, 2–9
Hollan, J. D. Hutchins, E. L. y Kirsh, D. (2000). Distributed cognition: A new theoretical
foundation for human–computer interaction research. ACM Transactions on
Human-Computer Interaction, 174–196.
Holtzblatt, K. Jones, S, M. Baecker, J. Grudin, W. A. S. Buxton, y Greenberg, S. (1995).
Readings in Human-Computer Interaction: Toward the year 2000. San Francisco.
CA: Morgan Kaufmann.
Johnson, W. L., Rickel, J. W., & Lester, J. C. (2000). Animated Pedagogical Agents: Face-
to-Face Interaction in Interactive Learning Environments, Journal of Artificial
Intelligence in Education, nº 11, pp. 47-78.
Jordan, P. (1998). Human factors for pleasure in product use. En Applied Ergonomics,
25–33.
Kleinsmann, M., Sarri, T., & Melles, M. . (2018). Learning histories as an ethnographic
method for designing teamwork in healthcare. CoDesign, 1–19.
Kukulska-Hulme, A. (2004). Usability and pedagogical design: Are language learning
websites special?. In EdMedia: World Conference on Educational Media and
Technology. Association for the Advancement of Computing in Education, pp.
4235–4242.
Manzini, E. (2015). Cuando todos diseñan: Una introducción al diseño para la innovación
social. Madrid: Gráficas Muriel.
Martínez, Y , & Cely, C. (2018). Diseño de Interfaz de Usuario para la creación de
Sistemas Multimedia para Apoyar el Desarrollo del Lenguaje. Tecnología & Diseño.
Maslow, A. 2012. «Pirámide de las necesidades.»
Mirnig, A. G. Meschtscherjakov, A. Wurhofer, D. Meneweger, T. y Tscheligi, M. (2015).
A formal analysis of the ISO 9241-210 definition of user experience. In Proceedings
of the 33rd Annual ACM Conference Extended Abstracts on Human Factors in
Computing Systems. ACM, 437–450.
Morales-Urrutia, E. Ocaña, J. M. Pérez-Marín, D. y Tamayo, S. (2017, October). A first
proposal of Pedagogic Conversational Agents to develop Computational Thinking
in children. In Proceedings of the 5th International Conference on Technological
Ecosystems for Enhancing Multiculturality (p. 2). ACM.
Nielsen, J. (1994). Usability inspection methods. New York: Wiley.
Nielsen, J. (1995). Scenarios in discount usability engineering. Scenario-based design:
Envisioning work and technology in system development. New York: Wiley, 151–167
Norman, D. (2002). Emotion & design: attractive things work better. Interactions, 36–42.
Norman, D. (2004). Emotional Design: Why We Love (or Hate) Everyday Things. En
Basic Books. Nueva York: Basic Books.
O’Hare, J., Dekoninck, E., Mombeshora, M., Martens, P., Becattini, N., & Boujut, J.
F. (2018). Defining requirements for an Augmented Reality system to overcome
the challenges of creating and using design representations in co-design sessions.
CoDesign, 1–24.
Preece, J. Rogers, Y. Sharp, H. Benyon, D. Holland, S. y Carey, T. (1994). Human-
Computer Interaction. AddisonWesley.
Preece, J. (2000). Online Communities: Designing Usability, Supporting Sociability.
Chichester: Wiley.
Roth, R. (2017). User Interface and User Experience(UI/UX) Design. The Geographi
Information Science & Technology Body of Knowledge
Sanders, E. B. N. y Stappers, P. J. (2014). Probes, toolkits and prototypes: three
approaches to making in codesigning. En CoDesign, 5–14.
Sanders, E. B. (2005). Information, inspiration and [Link] of the 6th
International Conference of the European Academy of Design. Bremen: University
of the Arts.
Stappers, P. J. (2014). Prototypes as Central Vein for Knowledge Development. Proto:
type 2010.
Sanders, E. B.-N. y Stappers, P. J. (2008). Co-creation and the new landscapes of design.
CoDesign, 5–18.
Silveira Donaduzzi, D. S. D., Colomé Beck, C. L., Heck Weiller, T., Nunes da Silva
Fernandes, M., & Viero, V. (2015). Grupo focal y análisis de contenido en
investigación cualitativa. Index de enfermería, 71–75.
Si, M, & Marsella, S. C. (2014). Encoding theory of mind in character design for
pedagogical interactive narrative. Advances in HCI, 10.
Schuler, D. y Namioka, A. (1993). Participatory design: Principles and practices.
Hillsdale. Lawrence Erlbaum.
Wong, M.L. & Khong, Chee Weng & Thwaites, H. (2012). Applied UX and UCD Design
Process in Interface Design. Procedia - Social and Behavioral Sciences, 703–708.
1
Universidad Técnica del Norte, Faculty of Engineering in Applied Sciences, 17 July Avenue, 100150, Ibarra,
Ecuador.
2
Network Science Research Group e-CIER, 17 July Avenue, 100150, Ibarra, Ecuador
3
Fuerzas Armadas ESPE University, Software Engineering Career, Quijano-Ordónez and Hermanas Páez
Street, 050150, Latacunga, Ecuador.
Pages: 161–173
1. Introduction
The difficulties of school learning are very common in educational institutions and
continue being a widely treated field in educational research. People with learning
problems have significant problems in the learning process in different areas (Badia,
Cano, & Fernández, 2013). In this context, it is considered that a student with learning
problems is not within the range expected by their age with respect to the acquisition
of knowledge, representations, behaviors and mastery of scientific concepts (Santana &
Rosato, 2018).
One of the most frequent learning problems in elementary school students is dyslexia.
His study began in the nineteenth century, where Kussmaul defined it as “verbal
blindness” in 1877, to a case study where a patient who had lost reading ability despite
of children (Cartuche, 2015). In the implementation, the human aspects over the
technological ones must be prioritized. However, it is necessary for institutions to have
technological centers, for the didactic innovation and, above all, facilitate the work of
teachers, becoming a complementary educational resource (Castro, Raposo, & Martínez,
2018). Studies show that the implementation of video games in the classroom “Special
Educational Needs” (SEN) (Sánchez-Rivas, Ruiz, & Sánchez-Rodríguez, 2017).
The objective of this research is to develop a video game that is used as an educational tool
to work with children with SEN not associated with disability, specifically, with dyseidetic
dyslexia, a type of dyslexia very common. For the construction of the proposal, the SUM
and Game Maker Studio methodology is applied as a development environment. The
learning achievements are determined by a prior evaluation and subsequent to the use
of the video game in those affected.
Regarding the structure of the document, section 1 determines the current situation of
the research, the problem and the justification of the development. Section 2 specifies
the type of research, its population and sample, then the SUM methodology is applied
to the development of the video game. In section 3 the results and evaluation of the
software are determined by means of statistical tests. Section 4 presents the discussion
and section 5 the conclusions and future work.
F1. Concept
The proposal has a ludo-educational approach, designed for children with dyslexic
dyslexia from 6 to 9 years old and teachers who a support need tool for the learning of
those affected.
Game mechanics
In accordance with the functional requirements (Guevara-Vega et al., 2019) of the video
game, which in the SUM methodology are called characteristics, two game modes were
established based on the areas affected by the dyseidetic dyslexia, corresponding to the
visual and spatial area of the child.
The video game strengthens the child’s visual area using eye-hand coordination training,
through exercises in which it is necessary to identify an object from a set of images that is
equal to a sample that is projected on the screen; The player, by using the mouse, drags his
response to the sample, if it is correct the game will emit a victory sound and will move on
to the next activity (which increases his level of difficulty throughout the game), otherwise if
the answer is wrong will tell you what to keep trying, it should be noted that the game makes
the indications visually (visual perception) and auditory (auditory perception) at all times,
in this way the attention and visual search ability of the child / player will be exercised.
In addition, the video game consists of several spatial orientation activities, in which
you must choose the address of each of the objects that are on the screen, for which
you drag with the mouse each object towards the direction that is created correctly , if
all movements are successful, the level is advanced, otherwise you must keep trying. A
reinforcement level is used every three levels passed, in order to remember the positions
that were used. As the level progresses, the direction alternatives used are increased,
the main ones being up, down, right, left, forward and back, thus strengthening the
laterality, attention skills and spatial orientation of the child / player.
The processes of automation of the mechanics of the game for the visual and spatial
areas are similar, as an example the process of the visual area is shown (See Figure 3).
F2: Planning
Definition of the development team
The video game was designed with the support of an expert in the software engineering
area of the Technical University of the North (UTN, Ecuador), an expert in the area of
primary education with knowledge of dyslexia and an expert in the area of psychology
of the educational institution, who developed and implemented the proposal, as well as
evaluate the learning achievements of the affected students thanks to the video game.
Specification of videogame features
The main functional characteristics of the videogame were established and distributed
in six iterations, determining the order in which they should be developed, to maximize
their value, see Table 1.
ID Characteristics ID Characteristics
CR-01 Main page CR-07 Space Area – Hard Mode
CR-02 Page “About” CR-08 Space Area – Reinforcement levels
CR-03 “Exit” page CR-09 Option menu
CR-04 Visual Area – Easy Mode CR-10 Help screens
CR-05 Visual Area – Difficult Mode CR-11 Management of lives and games
CR-06 Space Area – Easy Mode
F5: Closure
In this phase the final version of the proposal is delivered, in this case the video game
was installed in the technological environments of the Educational Unit. In addition,
the installer and user manual of the video game was made to the Department of Student
Counseling of the institution.
Phase 3: Evaluation of the video game
Evaluation of visual and spatial skills prior to the use of the video game
Once the development of the video game and the beta tests were completed, the first
evaluations were made with those affected, with the purpose of verifying the initial
state of their visual (see Table 4) and spatial (see Table 5) abilities, and then making a
comparison with the evaluations subsequent to the use of the videogame, and analyze
the results (impact) of this process.
Evaluation of visual and spatial skills after the use of the video game
Subsequent evaluations allow us to appreciate the effectiveness or failure of the videogame
in the training of students’ abilities. In the same way, the evaluated areas (visual - spatial)
are separated for a better appreciation of the results (see Tables 6 and 7).
3. Results
The sample of the research is children with learning problems equivalent to 52 students,
of which 42.31% have no difficulties in the areas evaluated, while 57.69% have different
degrees of involvement in each area.
For the visual area
After the use of the video game, the visual and spatial abilities of the affected children
were evaluated, and the results before and after the use of the software were compared,
obtaining the following results in the visual area:
The analysis of the previous and subsequent evaluations in the visual area shows an
increase of children who do not have learning problems in 23.07%, equivalent to twelve
students, and considerable improvements that are reflected thanks to the decrease of
students affected in the others evaluation criteria (see Figure 4).
used was that of Wilcoxon (Juma et al., 2019). This test consists of a nonparametric test
applied to two related samples and tries to debate whether the results emitted by both
samples are the same or different. Specifically, the null hypothesis (H0) will show that
the starting distributions of the populations from which the samples were obtained are
the same, as opposed to the alternative hypothesis (H1) that there is a difference between
both distributions (Bouso, 2013). In this study, the two hypotheses were established as
follows:
H0: There are no significant differences in the improvement of visual and spatial
perception skills in children with dyslexia.
H1: Whether there are significant differences in the improvement of visual and spatial
perception skills in children with dyslexia.
Statistical analysis was performed using IBM SPSS Statistics software, version 24 (IBM,
2018). The decision rule in the hypothesis test was the following:
If p. value> 0.05 then H0 is accepted, otherwise H0 is rejected.
The p. value represents the Asymptotic Sig value shown in Table 8.
As it is observed, for all the tests, the values of asymptotic significance (p-value) are
inferior to 0.05, that is to say, that according to the rule of decision the hypothesis
H1 is accepted. Therefore, it is concluded that there are significant differences in the
improvement of visual and spatial perception abilities in children with dyslexia.
4. Discussion
The results of this investigation are related to the study carried out by Sánchez-Rivas
et al. (2017) who noted that the use of video games in the classroom has an advantage
over traditional resources in students with SEN, improving participation, motivation,
performance and the extension of the educational process outside the study center.
Castro et al. (2018), confirm that skills and cognitive processes can be improved in
children with learning difficulties, by integrating video games as an educational resource,
since the results of these interventions have turned out to be very positive. In the same
way, the research agrees with Pedroli et al. (2017) by pointing out that traditional skills
training methods can become boring and very demanding, which is why he points out
as a technological tool a Wii game that improves reading skills in dyslexic children.
A very similar project, made by Pinilla (2013), proposes the video game as a tool that
facilitates pedagogical work and treatment, strengthening the linguistic, auditory, visual
and spatial areas of the affected people.
In accordance with Santana & Rosato (2018), it was affirmed that it is important
understanding of the complexity of the teaching and learning processes in students
with school learning problems. De-La-Peña & Brotóns (2018) analysed dyslexia and
dyscalculia as the most common and important learning difficulties in educational
practice. On the other hand, Castro et al. (2018) exposed the integration of video games
as an educational resource that helps improve the cognitive processes of elementary
school students with learning problems. Sánchez-Rivas et al. (2017) had as objective
to know the perception of the teachers that teach direct teaching to the children of
primary education with SEN, where they showed that the teachers who made use of the
videogames noticed improvements regarding the classroom work.
Regarding the development and implementation of this proposal, there were some
limitations: (i) the development team did not have a professional in graphic or sound
design, (ii) the budget of the project was very small, which was not possible acquire
a license for the development environment, (iii) the primary education institution did
not have a technological space, which is equipped with everything necessary for the use
of the video game, since its physical space is very limited, and (iv) ) students are not
familiar with the use of desktop computers or laptops, so they do not have the skills to
handle and manipulate computer peripherals.
References
Audacity Team. (2019). Audacity. Obtenido de [Link]
Badia, G. A., Cano, O. M., Fernández, V. C. (2013). Dificultades de aprendizaje de los
contenidos curriculares. Barcelona: Editorial UOC.
Juma A., Rodríguez, J., Naranjo M., Caraguay J., Quiña A., García-Santillán, I. (2019).
Integration and Evaluation of Social Networks in Virtual Learning Environments:
A Case Study. Communications in Computer and Information Science. Vol. 895, pp
245–[Link]: [Link]
Pedroli, E., Padula, P., Guala, A., Meardi, M. T., Riva, G., Albani, G. (2017). A Psychometric
Tool for a Virtual Reality Rehabilitation Approach for Dyslexia. Computational and
Mathematical Methods in Medicine. doi:10.1155/2017/7048676
Pinilla, K. E. (2013). Videojuego para el tratamiento de la dislexia. Tesis de Grado.
Universidad Piloto de Colombia, Bogotá.
Prabawa, H. W., Sutarno, H., Kusnendar, J., & Rahmah, F. (2018). Learning basic
programming using CLIS through gamification. Journal of Physics: Conference
Series, 1013(1). doi:10.1088/1742-6596/1013/1/012099
Sánchez-Rivas, L., Coveñas, R. (2013). Dislexia: Un enfoque multidisciplinar. ECU.
Sánchez-Rivas, E., Ruiz, J., Sánchez-Rodríguez, J. (2017). Videojuegos frente a fichas
impresas en la intervención didáctica con alumnado con necesidades educativas
especiales. Educar, 53(1), 29–48.
Santana, T., Rosato, M. (2018). The subjective dimension of the complaint of school
learning difficulties; Dimensión subjetiva de la queja de dificultades de aprendizaje
escolar]. Psicologia Escolar e Educacional, 22(2), 385–394. doi:0.1590/2175-
35392018011363
Shamsuddin, S., Selman, M., Ismail, I., Amin, M., & Rawi, N. (2018). A conceptual
framework for gamified learning management system for LINUS students.
Indonesian Journal of Electrical Engineering and Computer Science, 12(3), 1380–
1385. doi:10.11591/ijeecs.v12.i3.pp1380-1385
YoyoGames. (2019). Game Maker Studio. Obtenido de [Link]
simena.dinas00@[Link], [Link]@[Link]
1
Universidad Santiago de Cali, Calle 5 # 62-00, Cali, Colombia
2
Universidad del Valle, Calle 13 # 100-00, Cali, Colombia
Pages: 174–186
1. Introduction
In the physical world, objects interact when they come near to each other; especially
in motion. However, there are motionless objects with an unchangeable position; they
are obstacles. A geometrical structure can be used to represent the most significant of
elements of the real world; it is the Delaunay Triangulation (DT). Thus, DT will be used
to model motion and motionless objects as simple as possible. Managing moving objects
in an environment with obstacles is the central topic of this approach.
Even though motion objects are highly studied, motionless objects can be used to
represent the motionless world, the part of the world that never changes its position. For
that, constraints represent obstacles. DT helps to calculate the proximity information,
which has been an interesting topic in Computational Geometry to detect collisions.
There are several works focused on small perturbations; they exploit temporal and
spatial coherence; in other words, they work on the stability or predictability of the
data. For instance, in (Vomácka, 2008a), it was addressed research on DT of moving
points, whereas in (Vomácka, 2008b), it was proposed a numerical-analytical method
to compute times of topological events required to maintain a DT. Research conducted
by Machado Manhães de Castro (2009) showed an efficient way to update DTs when
there are small perturbations on vertices. Besides, a study of times for topological events
using DT was developed by Vomácka and Kolingerová (2008). They worked on the
computation of a highly time-consuming process, which analyzes topological events
required to maintain a Kinetic Delaunay Triangulation (KDT) with moving vertices
through linear trajectories. Additionally, fast updating of DT of moving vertices by
bi-cell filtering was proposed by Zhou et al. (2010), in which they addressed a slight
perturbation on data for DT. They used Bi-cell filtering to update the triangulation; its
approach takes advantage of the connectivity between vertices, the temporal, and the
spatial coherence.
Kinetic Data Structures (KDS) are challenging for motion in collision detection (Weller,
2013); moreover, KDT have been explored to tackle problems related to collision
detection because motion objects play a crucial role in simulations. Even though kinetic
approaches are computationally more expensive than traditional approaches which
model moving objects as unrelated static snapshots over time, they are more complete
and more precise than the others. When simulating a complex system of moving
objects, it is desirable to maintain both, objects and environment, as a whole. However,
proposed approaches ignore static objects; they represent moving and static objects
indistinguishable. In this research, we aim to address the problem by defining static
objects as obstacles and constraints model obstacles in DTs.
The remainder of this document is organized as follows: Delaunay Triangulation and
Constrained Edges are described in Sections 2. Motion Data and Kinetic Delaunay
Triangulation with Constrained Edges is detailed in Sections 3 and 4, respectively,
whereas, the Computational Experiments and Conclusions are described, respectively,
in Sections 5 and 6. The Acknowledgements and Bibliography are shown in the last part
of the document.
Given a set of points P and a set of edges E, a Delaunay Constrained Triangulation (DCT)
guarantee both, the CE and the DT, it is possible to convert a CDT into a DCT by inserting
artificial vertices inside the triangulation.
3. Motion Data
Motion data is related to the change of the position of each object. Motion can be random;
however, we work on a specific trajectory for the objects, which is previously known.
Several authors have been working on motion planning (Moll et al., 2014), motion data
(Basch et al., 1997) and KDS (Guibas et al., 2004). Several authors have worked on DT
of moving vertices, using dynamic and kinetic approaches (Russel, 2007; Vomácka,
2008b).
and the structure has to be repaired. Certificate functions are widely explained in Guibas
(2004). For details of Kinetic Data Structures see Vomácka (2008a); Basch et al. (1997b);
Guibas (2004)
5. Computational Experiments
The KCDT and the KDCT experiments are focused on analyzing the performance of the
algorithms for the events management. For more details, see Dinas (2016).
The experiment for both triangulations includes the following steps: i) it was created
15 different sets with a number of vertices between 100 and 100.000. For that, the
polynomial coefficients for the motion functions for each vertex were randomly
determined. ii) It was created a set of 40 CE by 53 additional vertices. iii) For each set
of vertices, it was created the KCDT and the KDCT. iv) For each triangulation, it was
computed the number of certificate functions at time t = 0, then it was calculated the
number of events in the Event Queue and the average time of events in the Event Queue.
v) For each kind of event, it was computed the number of events repaired during the
first 100 events. Finally, vi) it was calculated the average quantity of flip and moving
operations required to repair the event.
5.1. Results
On the following figures, the number of moving vertices of each set of vertices is on
the horizontal axis, the points represent the result of each experiment, and the straight
line that appears in the figure is the tendency line for these points. The slope of the line
equation and R2 indicate the linearity level of the points.
The relationship between the number of enqueued events of both triangulations and
the number of moving vertices is practically linear (R2 equals to 0.999 and 0.994,
respectively). Moreover, for each thousand of vertices, the quantity of enqueued events
increases in almost 2.750 and 2.685, respectively (Figure 1).
The relationship between the time for enqueuing events of both triangulations and
the number of moving vertices is practically linear (R2 equals to 0.992 and 0.991,
respectively). Moreover, for each thousand of vertices, the time required for enqueuing
events increases in almost 3.23, and 3.25 seconds, respectively (Figure 2).
The relationship between the number of flips in inCircle events of both triangulations
and the number of moving vertices tends to be linear (R2 equals to 0.973 and 0.926,
respectively). Moreover, for each thousand of vertices, the number of flips in inCircle
events increases in almost 0.138, and 0.137, respectively (Figure 4).
The relationship between the average number of flips and moves used to repair the
verticesCollision events of both triangulations and the number of moving vertices tends
to be linear (R2 equals to 0.924 and 0.983, respectively). Moreover, for each thousand
of vertices, the average number of flips and moves used to repair the verticesCollision
events increases in almost 0.08, and 0.11, respectively (Figure 6).
The relationship between the average number of flips and moves used to repair
the vertexEdgeCollision events of both triangulations and the number of moving
vertices tends to be linear (R2 equals to 0.732 and 0.803, respectively). Moreover, for
each thousand of vertices, the average number of flips and moves used to repair the
vertexEdgeCollision events increases in almost 0.048, and 0.182, respectively (Figure 8).
RAM: 6GB. HardDisk: 679GB. Besides, the operative system, software, and packages
used were Linux Ubuntu version 12.04 (64 bits), the Computational Geometry Algorithms
Library (CGAL) Version 4.3, and DT, CDT, KDS, and Kinetic Framework.
5.3. Discussion
In general, the linear tendency of both triangulations is similar, as it is shown in the
following summary table. The number of events enqueued, the time for enqueuing the
events are practically linear with the number of vertices for both triangulations (Figures
1 and 2).
The results show that the number of inCircle events has not a linear tendency with the
number of vertices (Figures 3). However, they have a nonlinear least squared curve fitting,
which means that the tendency of the data fits a curve. In contrast, the flips required repairing
the inCircle events have a linear tendency with the number of vertices (Figure 4). Similarly,
the number of verticesCollision events has not a linear tendency with the number of vertices
(Figure 5), whereas the flips and moves operations required to repair the verticesCollision
events have a linear tendency with the number of vertices (Figures 6). Analogously, the
number of vertexEdgeCollision events has not a linear tendency with the number of vertices
(Figure 7), whereas the flips ad moves operations required to repair the vertexEdgeCollision
events has not a linear tendency with the number of vertices (Figure 8).
R2 Slope
Figure
CDT DCT CDT DCT
Quantity of Enqueued Events 0.999 0.994 2.754 2.685
Time for Enqueuing Events 0.992 0.991 3.234 3.249
Number of inCircle Events 0.055 0.445 ------ ------
Number of Flips in inCircle Events 0.973 0.926 0.138 0.137
Number of verticesCollision Events 0.115 0.013 ------ ------
Number of Flips + Moves in verticesCollision Events 0.924 0.983 0.08 0.114
Number of vertexEdgeCollision Events 0.23 0.0002 ------ ------
Number of Flips + Moves in vertexEdgeCollision Events 0.732 0.803 0.048 0.182
According to Table 1, the R2 for the quantity of enqueued events and the time for
enqueuing events are almost equal for both Triangulations. Those values are calculated
by the quantity of enqueued events in time t=0. In contrast, the following values are
calculated by the amount of specific events that has used to repair the first 100 events
on the Event Queue. The reparation of each event can produce new events. The R2 for
the number of flips in inCircle events shows a better linearity tendency for CDT than for
DCT. In contrast, the R2 for the amount of flips and moves in verticesCollision events
shows a better linearity for DCT than for CDT. Even though there is no a linear tendency
in the other variables with the number of vertices, for the number of inCircle events and
the number of verticesCollision events, this is better for DCT. Similarly, for the number
of vertexEdgeCollision events this is better for CDT.
The slope for the quantity of enqueued event, the time for enqueuing the events and the
number of flips in inCircle events are almost equal for both triangulations; however the
slope for the number of flips and moves in verticesCollision, and vertexEdgeCollision
events, for CDT is almost 50% and 75% lower than the slope for DCT, respectively.
The quantity of enqueued events for CDT has the R2 and slope slightly upper than the
R2 and slope for DCT, respectively. That means that even though the number of moving
points in both triangulations are equal, the CDT produces a slightly higher quantity of
enqueued events. In contrast, the time for enqueuing the events is slightly lower for CDT
than for DCT.
Finally, neither the number of inCircle nor the number of verticesCollision nor the
number of vertexEdgeCollision events have a linear tendency with the number of vertices.
However, there are a nonlinear correlation between the number of verticesCollision and
the number of vertices, which can be seen in figure 4. The curve fitting for the figures 3(a)
reaches the asymptotic value faster than the figure 3(b) because of its rate is the highest
(0.447). In contrast, the number of verticesCollision events and vertexEdgeCollision
events do not fit with the nonlinear least squared curve fitting.
In contrast, the number of flips in inCircle and the number of flips and moves in
verticesCollision and vertexEdgeCollision have a linear tendency. Summarizing, CDT
produces a higher number of enqueued events and its time for enqueuing the events is
slightly lower than DCT. For that, CDT is slightly better than DCT because, even though
its slightly higher quantity of data, the processing time is slightly lower.
6. Conclusions
Due to CDT is not a DT, the management involves additional work to maintain the
structure valid. Then, a DCT model was constructed to take advantage of the DT structure
including CE but including new vertices.
KCDT is a KDT method including CEs. Thus, CEs were used into the model to represent
obstacles in the real world. As a result, a DT with CEs that does not have the Delaunay
structure, but it has a structure as close as possible to a DT.
KDCT is a KDT supporting CEs and including new vertices. KDCT guarantees both: the
inclusion of CEs and guarantees the Delaunay structure. Nevertheless, it is impossible
to guarantee both features without changes; thus, new vertices were included into the
triangulation. New vertices were managed as artificial vertices since they were not part
of the original set of vertices. Lastly, new vertices change constantly because of motion.
A set of experiments for KCDT, and KDCT was developed to measure the time for
enqueuing the events, the number of events, the number of operations, among others. The
comparison between KCDT, and KDCT show that in the most of the cases, the KCDT
have a slightly upper linear tendency than KDCT. Except for the Number of Flips +
Moves in verticesCollision Events and Number of Flips + Moves in verticesCollision
Events, which does not have a linear tendency.
The number inCircle verticesCollision and verticesEdgeCollision events show a tendency
that is not linear. However, the number inCircle Events fit a nonlinear least squered
curve. In contrast, the others have an almost randomly behavior; thus the tendency is
not clear to adjust a curve.
A reason which the KCDT is slightly better than KDCT could be related to the artificial
points. Thus the cost of creates and updates the position of the artificial points in a
kinetic environment need to be reviewed.
Acknowledgements
This research was supported by the Programa de Apoyo a Doctorados Nacionales
de Colciencias (Departamento Administrativo de Ciencia, Tecnología e Innovación
-Colciencias). This article is part of the Ph.D. thesis called “A Kinetic Constrained
Delaunay Triangulation Approach for Modeling Obstacles” and developed at
Universidad del Valle.
References
Al-Jubeh, M., Barequet, G., Ishaque, M., Souvaine, D. L., Tóth, C. D., and Winslow, A.
(2013). Constrained tri-connected planar straight line graphs. In Pach, J., editor,
Thirty Essays on Geometric Graph Theory, 49–70. Springer New York. DOI:
[Link]
Basch, J. (1999). Kinetic Data Structures. PhD thesis, Stanford University, Stanford,
CA, USA.
Basch, J., Guibas, L. J., and Hershberger, J. (1997a). Data structures for mobile data. In
SODA, 747–756.
Basch, J., Guibas, L. J., Silverstein, C. D., and Zhang, L. (1997b). A practical evaluation
of kinetic data structures. In Proceedings of the thirteenth annual symposium on
Computational geometry, SCG ’97, 388–390, New York, NY, USA. ACM. DOI:
[Link]
Bose, P., De Carufel, J.-L., and van Renssen, A. (2015). Constrained generalized delaunay
graphs are plane spanners. In Proceedings of the 31st European Workshop on
Computational Geometry (EuroCG).
Chen, Z., and Tan, T.-S. (2019). Computing Three-dimensional Constrained Delaunay
Refinement Using the GPU. CoRR, abs/1903.03406.
Chen, Z., Qi, M., and Tan, T.-S. (2017). Computing delaunay refinement using the GPU.
In Proceedings of the 21st ACM SIGGRAPH Symposium on Interactive 3D Graphics
and Games (I3D ‘17), Stephen N. Spencer (Ed.). ACM, New York, NY, USA, Article
11, 9 pages. DOI: [Link]
Coll, N., and Guerrieri, M. (2017). Parallel constrained Delaunay triangulation on the
GPU, International Journal of Geographical Information Science, 31(7), 1467–
1484, DOI: [Link]
Dinas, S. (2016). A Kinetic-Constrained Delaunay Triangulation Approach for Modeling
Obstacles. PhD Thesis, Universidad del Valle, Cali, Colombia.
jorgevelasco@[Link], cgonzals@[Link]
1
Universidad del Cauca, Calle 5 # 4-70, 190001, Popayán, Colombia.
2
Universidad del Cauca, Calle 5 # 4-70, 190001, Popayán, Colombia.
Pages: 187–199
1. Introducción
Las tecnologías móviles están configurando un nuevo paradigma económico, social,
cultural y educativo que obliga al desarrollo de individuos capaces de adaptarse a
2. Metodología
El presente estudio, establece como procedimiento guía para realizar la revisión de la
literatura los pasos definidos por (Kitchenham, 2007). El objetivo de esta revisión, es
proveer una visión global del conocimiento sobre Evaluación en Sistemas de Aprendizaje
Móvil y la importancia de la información del contexto en este tipo de sistemas. Las pautas
definidas para el protocolo de revisión corresponden a: i) preguntas de investigación, ii)
fuente de datos y estrategia de búsqueda, iii) criterios de inclusión y exclusión, y iv)
ejecución de la cadena de búsqueda.
1
“El contexto es cualquier información que puede ser usada para caracterizar la situación de
una entidad. Una entidad es una persona, lugar u objeto que es considerado relevante para la
interacción entre el usuario y una aplicación” (Dey, 2001).
3. Resultados
La información del contexto está siendo utilizada para soportar presentación, entrega
y creación de materiales educativos. En la tabla 3, se clasifican solo los estudios que
consideran evaluación y se detalla las entidades del contexto utilizadas por cada estudio
de investigación, dando así respuesta a la pregunta PI3.
En la tabla 4, se presentan las técnicas de razonamiento (pregunta PI4) utilizadas en los
estudios previos de la tabla 3, incluyendo el objetivo de medición de la técnica. El estudio
de (Nikou & Economides, 2017) no reporta uso de técnica.
Evaluación
En evaluación, se evidencian varios mecanismos (Louhab et al., 2018a; Madhubala
& Akila, 2017) que están siendo incorporados en los Sistemas de Aprendizaje Móvil
(Pregunta PI2). Sin embargo, la evaluación sigue siendo un componente crítico y es
necesario promover esfuerzos con el fin de dar soporte a estudiantes y docentes en
contenidos de evaluación, apoyo técnico, seguimiento a logros y nivel de compresión,
así como realimentación efectiva durante la evaluación (Goldin, Narciss, Foltz, & Bauer,
2017). Otros estudios, resaltan que la evaluación formativa provee oportunidades a los
Técnicas de razonamiento
De acuerdo a la pregunta PI4, las técnicas de razonamiento encontradas (ver tabla 4)
hacen referencia a técnicas para medir nivel de conocimiento y el nivel de rendimiento
Componentes de modelado
Finalmente, los estudios primarios descritos en la tabla 5, responden a la pregunta PI5,
donde solo nueve estudios presentan componentes a nivel de modelado. Los estudios
de (Chu et al., 2017; Faber & Visscher, 2018) no especifican ningún componente. Los
componentes son presentados en términos de módulos (Louhab et al., 2018b), capas
(Harchay et al., 2014), framework (Chou et al., 2015), necesidades humanas (Nikou &
Economides, 2017), motores (Banno & Yang, 2016), dominios (Wirawan & Mahendra,
2017) y dimensiones (Chiu & Huang, 2015). De igual forma, se evidencia que no hay
consenso frente a lo que representa un modelo de evaluación, cada propuesta presenta,
interpreta e implementa de manera diferente el concepto de evaluación en el campo
4. Conclusiones
El estado actual del conocimiento sobre evaluación en Sistemas de Aprendizaje
Móvil muestra que el uso de estrategias de evaluación como el enfoque formativo,
permite a los estudiantes la apropiación del aprendizaje y una mayor compresión del
conocimiento; siendo la realimentación el componente clave dentro de esta estrategia
de evaluación. El soporte a este tipo de evaluaciones viene dado a partir de la medición
o predicción del nivel de conocimiento, al igual que la creación, adaptación y/o entrega
de actividades, contenidos y recursos de aprendizaje basados en el perfil del estudiante
y su nivel de rendimiento.
Estudios recientes han empezado a involucrar elementos del contexto con mecanismos
de evaluación (Banno & Yang, 2016; Louhab et al., 2018b), siendo estos elementos
diferenciadores en el proceso, ya que representan la situación actual del estudiante
en el aula de clase. Así, el contexto es un componente clave y de alto desafío para
los investigadores, con el fin de proveer nuevos servicios educativos basados en
la información que pueda ser capturada alrededor del estudiante. Las entidades
en común de las propuestas revisadas corresponden a tiempo, ubicación, físico,
dispositivo y estudiante.
Por otro lado, las técnicas de razonamiento utilizadas para la medición del nivel
de conocimiento y nivel de rendimiento corresponden a modelo Teórico Ítem-
Respuesta, Evaluación basada en Web y Análisis de Pruebas, Reglas Fuzzy, Reglas
de Adaptación basadas en CAT y algoritmos de Extensión del Modelo de Análisis
del Factor de Rendimiento. Así, solo las Reglas de Adaptación basada en CAT y la
extensión del Modelo de Análisis del Factor de Rendimiento consideran elementos
del contexto. La técnica de realimentación más usada de acuerdo a la revisión de la
literatura, es Fuzzy.
Finalmente, los componentes de modelado en Sistemas de Aprendizaje Móvil que
consideran mecanismos de evaluación y uso de la información del contexto, requieren
de módulos para: i) entregar y adaptar contenidos de aprendizaje, ii) crear y actualizar
el perfil del estudiante, iii) capturar y analizar la información del contexto, iv) almacenar
y adaptar preguntas de evaluación, v) medir el nivel de conocimiento y el nivel de
rendimiento y vi) entregar realimentación en tiempo real de manera efectiva.
Referencias
Akharraz, L., El Mezouary, A., & Mahani, Z. (2018). To context-Aware learner modeling
based on ontology. IEEE Global Engineering Education Conference, EDUCON,
1326–1334. [Link]
Baccari, S., & Neji, M. (2016). Design for a context-aware and collaborative mobile
learning system. IEEE International Conference on Computational Intelligence
and Computing Research. [Link]
Banno, S. I., & Yang, Y. (2016). Improving educational assessment in mobile environment.
Proceedings - 2nd International Conference on Computational Intelligence and
Communication Technology, 591–597. [Link]
Broy, M., Deimel, A., Henn, J., Koskimies, K., Plášil, F., Pomberger, G., … Szyperski, C.
(1998). What characterizes a (software) component? Software - Concepts & Tools,
19(1), 49–56. [Link]
Chiu, P., & Huang, Y. (2015). The effectiveness of a meaningful learning-based
evaluation model for context-aware mobile learning. British Journal of Educational
Technology, 46(2), 437–447. [Link]
Chou, C. Y., Lai, K. R., Chao, P. Y., Lan, C. H., & Chen, T. H. (2015). Negotiation based
adaptive learning sequences: Combining adaptivity and adaptability. Computers
and Education, 88, 215–226. [Link]
Chu, H. C., Chen, J. M., Hwang, G. J., & Chen, T. W. (2017). Effects of formative
assessment in an augmented reality approach to conducting ubiquitous learning
activities for architecture courses. Universal Access in the Information Society,
1–10. [Link]
Curum, B., Chellapermal, N., & Khedo, K. K. (2017). A Context-Aware Mobile Learning
System Using Dynamic Content Adaptation for Personalized Learning. Emerging
Trends in Electrical, Electronic and Communications Engineering, 416. https://
[Link]/10.1007/978-3-319-52171-8
Curum, B., Gumbheer, C. P., Khedo, K. K., & Cunairun, R. (2017). A content-adaptation
system for personalized m-learning. 2017 1st International Conference on
Next Generation Computing Applications, 121–128. [Link]
NEXTCOMP.2017.8016186
Dey, A. (2001). Understanding and using context. Personal and Ubiquitous Computing,
4–7. [Link]
El Guabassi, I., Bousalem, Z., Al Achhab, M., Jellouli, I., & El Mohajir, B. E. (2018).
Personalized adaptive content system for context-Aware ubiquitous learning.
Procedia Computer Science, 127, 444–453. [Link]
procs.2018.01.142
Faber, J. M., & Visscher, A. J. (2018). The effects of a digital formative assessment tool
on spelling achievement: Results of a randomized experiment. Computers and
Education, 122, 1–8. [Link]
Goldin, I., Narciss, S., Foltz, P., & Bauer, M. (2017). New Directions in Formative
Feedback in Interactive Learning Environments. International Journal of Artificial
Intelligence in Education, 27(3), 385–392. [Link]
0135-7
Harchay, A., Cheniti-Belcadhi, L., & Braham, R. (2014). A Context-Aware Framework
to Provide Personalized Mobile Assessment. Interaction Design and Architecture,
82–97.
Hattie, J. (1999). Influences on Student Learning, 1–25.
Huang, S., Yin, B., & Liu, M. (2017). Research on individualized learner model based on
context-awareness. Proceedings - 2017 International Symposium on Educational
Technology, ISET 2017, 163–167. [Link]
Kalaivani, R., & Sivakumar, R. (2017). A Survey on context-aware ubiquitous learning
systems. International Journal of Control Theory and Applications, 10(23),
111–124.
Khalifa, W. Ben, Souilem, D., & Neji, M. (2018). An evaluation system of students
(Applied in Primary School in Tunisia). Proceedings of IEEE/ACS International
Conference on Computer Systems and Applications AICCSA, 1385–1390. https://
[Link]/10.1109/AICCSA.2017.68
Kitchenham, B. (2007). Procedures for Performing Systematic Literature Reviews in
Software Engineering. Keele University & Durham University, UK.
Kulasegaram, K., & Rangachari, P. K. (2018). Beyond “formative”: assessments to enrich
student learning. Advances in Physiology Education, 42(1), 5–14. [Link]
org/10.1152/advan.00122.2017
Lopes, Á. R., Carvalho De Oliveira, D., & Vaccare Braga, R. T. (2017). Context-aware
Ubiquitous Learning: Literature Systematic Mapping on Ubiquitous Learning
Environments.
Louhab, F. E., Bahnasse, A., & Talea, M. (2018a). Considering mobile device constraints
and context-awareness in adaptive mobile learning for flipped classroom. Education
and Information Technologies, 23(6), 2607–2632. [Link]
s10639-018-9733-3
Louhab, F. E., Bahnasse, A., & Talea, M. (2018b). Towards an Adaptive Formative
Assessment in Context-Aware Mobile Learning. Procedia Computer Science, 135,
441–448. [Link]
Luo, L., Yang, Y., & Wei, Y. (2017). Research on Adaptive Mobile Collaborative
Learning System. Springer Nature Singapore Pte Ltd, 414–423. [Link]
org/10.1007/978-3-319-20424-6
Madhubala, R., & Akila, A. (2017). Context Aware and Adaptive Mobile Learning : A
Survey. Advances in Computational Sciences and Technology, 10(5), 1355–1370.
Retrieved from [Link]
Moebert, T., Zender, R., & Lucke, U. (2016). A Generalized Approach for Context-Aware
Adaptation in Mobile E-Learning Settings (Vol. 406). [Link]
3-319-26518-6
Mutahi, J., Bent, O., Kinai, A., Weldemariam, K., & Sengupta, B. (2015). Capturing
Learner’s Activity Events from a Mobile Learning System Using Adaptive Event
Framework. 2nd ACM International Conference on Mobile Software Engineering
and Systems, 109–112. [Link]
Nikou, S. A., & Economides, A. A. (2017). Mobile-based assessment: Towards a
motivational framework. IEEE Global Engineering Education Conference
EDUCON, 1522–1526. [Link]
Nyland, R. (2017). A Review of Tools and Techniques for Data-Enabled Formative
Assessment. Journal of Educational Technology Systems, 53(5), 004723951774893.
[Link]
Ozdamli, F., & Cavus, N. (2011). Basic elements and characteristics of mobile learning.
Procedia - Social and Behavioral Sciences, 28(December), 937–942. [Link]
org/10.1016/[Link].2011.11.173
Schilit, B., Adams, N., & Want, R. (2008). Context-Aware Computing Applications, 85–
90. [Link]
Tortorella, R., Kinshuk, D., & Chen, N. S. (2018). Framework for designing context-
aware learning systems. Education and Information Technologies, 23(1), 143–164.
[Link]
Unesco. (2013). Directrices para las políticas de aprendizaje móvil. Retrieved from
[Link]
Wang, T. H., Wang, K. H., Wang, W. L., Huang, S. C., & Chen, S. Y. (2004). Web-based
Assessment and Test Analyses (WATA) system: Development and evaluation.
Journal of Computer Assisted Learning, 20(1), 59–71. [Link]
j.1365-2729.2004.00066.x
Wirawan, M. A., & Mahendra, G. (2017). New Concept of Learning Outcomes
Assessment in Adaptive Mobile Learning, 134, 263–268. [Link]
icirad-17.2017.49
Abstract: In a world in which students are exposed to all kinds of digital stimuli,
the traditional educational, in which a teacher gives a lesson in front of a class
full of students who listen attentively, may not be very motivating. That is why, in
addition to offering new pedagogical possibilities, and helping teachers to nurture
their students with new skills and competences, technology plays a key role in the
classroom when it comes to generating motivation. In that sense, wearable devices
can be a powerful ally. For this reason, in this article, we will show a classification
of these devices and the analysis of the main parameters of each of them. Several
bibliographical sources were used for this work, such as: research documents,
technical articles and official websites of the wearable devices investigated. Seven
parameters were obtained to analyze by rating scales to optimize the decision of its
possible use.
1. Introduction
The growth of wearable technology is increasing considerably as the years go by. The
main reasons for the use of wearable technology in the current technological market
tend to be the problems related to the health and well-being of people. These are
wearable devices that are used in wireless body area network (WBAN), which work in
applications not only related to health, but also in the areas of research, communication,
entertainment, tourism and education. Wearable technology does not focus on the
characteristics of smartphones, although it is true that both have similar functions for
the user, the difference is that wearable devices have as their main objective to make
the user and the device one, with their own characteristics such as their weight, their
comfort and that they can work and provide information even when the user is not active
with the device (Çiçek, 2015). Wearable technology works through WBANs, that are
networks created by mini sensors connected to the human body and that work wirelessly
to provide information.
The use of wearable devices used in m-learning can be seen in several works. For
example, in the investigation by Santos et al. (2018) an integrated system is proposed
in the form of an intelligent glove that takes advantage of the movement of the body
to create the persistence of the effect of vision. This allows the visualization of letters
and words in literacy activities. Nakasugi and Yamauchi (2002) created a system called
“Viewer of the past”, which uses devices mounted on the head to increase reality and
improve learning by using historical scenes. In the work presented by Yordanova (2008)
the author proposes to develop adaptive learning contents based on metadata (obtained
by wearable devices) that are composed of information related to the profile of the
student. In this context, Jemni and Nasraoui (2009) used web mining techniques and
information retrieval to provide customizable adaptive e-learning experiences.
The analysis of the main parameters of the wearables allows optimizing the choice of
a device for its possible use or application. The sections of this document are detailed
below: section 2, briefly explains what WBAN are and the types of use attributed to this
type of body area networks; in section 3, we will present a brief collection of information
about portable devices, characteristics, classification and applications; in section 4, we
will indicate the method that was used to make tables that show a comparison between
wearable devices in relation to the analysis parameters investigated; in section 5, the
document shows the comparative analysis of the research; and finally in section 6, we will
write the final conclusions of the topic analyzed and how they could improve in the future.
the requirements that define Kaschel, Alvarado and Torres (2014) must be taken into
account. Examples of these are: the latency in medical applications must be less than 125
ms and in other applications less than 250 ms, they must have Quality of services (QoS),
the WBAN must be able to support up to 256 nodes in a network, the bit rate must be in
the range of 10 Kbps to 10 Mbps, etc. The main objective of the 802.15.6 standard is to
provide a network that can use low power, short distances and wireless communication
that is reliable enough to be used in the human body (Kaschel et al., 2014; Ravi, Wong,
Lo, & Yang, 2017).
3. Wearable devices
Wearable devices are those devices that can be linked in the human body, that is, they
can be used literally as garments in the human body. In 1966, when a professor from
the Massachusetts Institute of Technology created a pair of smart shoes that cheated
in a game (roulette), it was listed as the first wearable device in the world (Jiang et al.,
2015). Although many meanings and definitions are attributed to wearable technology,
it is important to understand that they are tangible devices that interact with or without
smartphones through a WBAN to provide specific information to the user (Çiçek, 2015).
The classification of wearable devices mentioned by Kalantari (2017) can be divided into
two large groups: product forms and product function. However, there are researchers
and scientists who classify portable devices in: accessories, electronic textiles and
electronic patches (Seneviratne et al., 2017).
3.1. Accesories
The accessories correspond to the group of wearable devices that can be used as
accessories in the human body, such as: those worn on the wrist called wrist-worn, those
that are used on the face and head called head-mounted and others jewelry and belts
(Seneviratne et al., 2017).
3.2. E-Textiles
Electronic textiles come from the classification of wearable devices that can be used
as clothing. Most are used in therapeutic environments, such as physiology in sports
and health, and are also used in psychological problems such as stress, because, the
clothing is capable of offering therapeutic massage and also its scope extends to military
applications (Gonçalves, Ferreira da Silva, Gomes, & Simoes, 2018).
3.3. E-Patches
This classification arises with the appearance of intelligent electronic patches able to
adhere adequately to human skin. Its main use is the surveillance of human physiological
problems and treatments of the skin for haptic purposes. They are not easy to find in the
market, since having such small sensors, their development tends to be very difficult,
very few of these patches are sold to the general public (Kilic, Brunner, Audoly, &
Carrara, 2017).
4. Method
For the development of this article, it was necessary to focus on the published research
articles on the subject and the scientific documents on the web that address the main
parameters to be analyzed. According to the research by Seneviratne et al., (2017), the
factors that should be taken more into account when choosing a device are: the type of
connectivity, the battery life, memory, application of use and price, but also highlight
parameters much deeper as the type of battery, processors, frequencies or cycles of clock,
brand and CPU. On the other hand, an equally important factor is security, in the studies
conducted in (Chuan, 2016; Saa & Lujan-mora, 2017) it can be shown that vulnerabilities
at the time of communication made by wearable devices used in WBAN are very
common. For example, when making payments using Near Field Communication (NFC)
technology, credit card data and access passwords may be exposed. In the investigation
(Khakurel, Porras, & Pöysä, 2018) the parameters that influence the acquisition or not
of a wearable device are a matter of the size and duration of the battery. Users of these
studies filed complaints, but investigations continue to improve these features quickly.
This article will not develop parameters such as the ability to add sensors, software and
firmware compatibility explained in (Haghi, Thurow, & Stoll, 2017) since it is designed
to have a much more general vision from the point of view of the different requirements
that users can have. Finally, the parameters to analyze are the following: Type of
connectivity, battery life, application, price, security, size and type of device. Below,
these parameters are detailed.
(TEH): Collection of thermoelectric energy is another technique that bases its principle
on the transformation or conversion of the internal temperature of the human body with
the external temperature of the environment. Most studies of this nature were done with
smart watches (Khakurel et al., 2018; Seneviratne et al., 2017).
The representation of the parameter to measure the battery life is as follows:
4.3. Applications
This parameter that indicates the place or places where a wearable device acts, in this
way, it is possible to choose with greater precision the device that best suits the needs.
The analysis parameter will be divided into: Health and medicine, industrial, military,
tourism and informationt. This is because they are the most common applications in
which wearable devices work (Smita Jhajharia, S. K. Pal, & Seema Verma, 2014).
4.4. Price
The price factor is the most common when it comes to analyzing the aspects related to
the acquisition of goods or material services, and technology is no exception. The prices
in this field are too high, but it is very important to analyze them in order to get closer
to the correct device. Obviously, prices will depend on the region in which the buyer is
located; this document takes as reference the prices of the US market.
Moderately Very
Cheap Expensive
expensive expensive
Smart watches 150 - 230 231 - 300 301 - 350 351 - n
Wristbands 23 - 50 51 - 100 101 - 300 301 - n
Smart eyewear 100 - 250 251 - 450 451 - 700 701 - n
Smart headsets 88 - 100 101 - 200 201 - 300 301 - n
Smart Jewelry 20 - 80 81 - 130 131 - 190 191 - n
Smart belts 75 - 150 151 - 250 251 - 530 531 - n
Smart Garments 70 - 200 201 - 350 351 - 500 501 - n
Shoes / Socks / Smart
75 - 150 151 - 300 301 - 350 351 - n
Gloves
Price of e-patches, due to the limited price information about electronic patches, it has
been decided to place only the reference of known prices for the devices Valedo Back
Therapy and Thync.
4.5. Security
Security is the most important parameter to analyze, because wearable devices connect
and transmit information wirelessly. The efforts must be reflected in order to guarantee
confidentiality, integrity and availability of the information generated by these devices.
Although we only start with the research and development of these devices, there are ways
to mitigate current vulnerabilities (Ching & Singh, 2016). According to the level of security
found for each of the devices analyzed, one of the following values can be taken: low, medium
and high. Low, if it has low security features such as authentication. Medium, if the values are
more advanced; and high, if the security of the wearable device in terms of communication
flows through the servers within independent companies that guarantee the security service.
4.6. Size
To analyze a wearable device, an important parameter to include and detail is the size of
it. Information was collected on the different wearable devices of watches and glasses in
their official web pages to take into account the dimensions they provide, in height, width
and depth, basically the three axes that govern the 3 dimensions. The size also implies the
weight that the devices have, however, in this article we will provide general information
about the size in relation to the dimensions. If a wearable device is very small, as is the
case with smart jewelry, the user cannot expect very complex functionalities.
Due to this, the size is divided into: small, medium and large. If any user is willing to
choose a wearable device whose characteristics and functions are multiple, deep and
complex, then it would have to be made of a wearable device with large dimensions. We
will consider the size of an electronic band-aid patch as small, the medium size would
take into account the physical dimensions of smart watches and wristbands, and the
large size would take the physical dimensions of intelligent clothing, helmets and straps.
5. Comparative analysis
The main objective of the comparative analysis of this section is the creation and
construction of comparative tables of all wearables, for which the parameters developed
in section 4 of this article will be used. To facilitate the reading of the tables, we have
indicates with a letter (X) if the device has the characteristic according to the analysis
parameter, otherwise the information about that characteristic could not be found in the
research carried out. The most representative devices (the best known and most sold)
of each category were chosen for this analysis. These data were taken from the websites
of Amazon, Ebay and Wish. The search of the different devices was ordered using the
following options:
•• Average customer opinion, and
•• Featured articles.
Long
Health and medicine X X X X X
Industrial X
Application Military
Tourism X
Information X X X X
Cheap
Moderately expensive X
Price
Expensive X X X X
Very expensive
Low X X X X
Security Medium X
High
Small X
Size Medium X X X X
Big
Short X
Battery
Medium X
duration
Long
Health and medicine X
Industrial
Application Military
Tourism X X
Information X X X X
Cheap X
Moderately expensive
Price
Expensive X
Very expensive X X
Low
Security Medium X X X
High X
Small
Size Medium X X X
Big X
6. Analysis of results
The results that the research shows are the following: Table 3 indicates that there is
a great similarity in security and prices between Apple Watch, Samsung Gear S2 and
Huawei Watch. Table 4 indicates that the Mi Band 2 is the most expensive accessory.
Table 5 shows that Google Glass is the security. In table 6 can see that all smart jewelry
has a very low level of security. Table 7, 8 and 9 show us that smart clothes and patches
are used more frequently in health and medicine. These findings can facilitate the
decision to purchase for personal, academic or research use of each wearable device
based on its characteristics
7. Conclusions
As time passes wearable devices have been introduced little by little in the commercial,
industrial, health and communication markets. The arrival of these devices creates interesting
challenges that must be resolved, such as battery life and communication security, which
were analyzed in this document and that are intended to be improved to help create greater
confidence in the adoption of a device. The different applications provided by the devices
make their adoption more feasible, however, the price factor is one of the most worrying for
users. The document covers the topics of WBAN, their main uses and characteristics, as well
as portable devices in which they show their definition, classification and types.
The weakest link when talking about wearable devices is the connection to the mobile
phone. This is because it is usual for both devices to be paired through a short-range
wireless connection known as Bluetooth. Malicious people can introduce malware and
use malicious applications to do a variety of things from calling, sending and receiving
texts and extracting personal information, etc. They can also know what the location is
through GPS and record any health problems that have put in the wearable device. The
danger is: once they have access to another person’s mobile device, they will have control
and a large number of resources at their fingertips. Two tips to implement security are:
first, use a personal identification number (PIN), all mobile devices should have a PIN;
secondly, set limits on the information to be shared.
We have given an idea and we have clarified the panorama to people, working groups,
entities and others so that they can choose the best option of wearable device according
to the requirement or the existing need. In this article, easy-to-read and interpretable
comparison tables were created for wearable devices that are worn on the wrist as smart
watches and used on the head and face as smart glasses, each comparing them by the
same type of device, along with the analyzed factors such as connectivity, battery life,
price, security, size and application. Finally, we hope that this article optimizes the
selection of a wearable device and helps future research on related topics.
Currently, with the rapid growth of the Internet of Things (IoT), wearable technologies
have begun to be used in various scenarios such as research, health, etc. In the field of
learning, Azzabi, Kouki and Jemni (2018) present a framework for mobile learning using
wearable technology. Despite the importance of these technologies to improve learning
experiences, they are not well explored yet in educational situations. In this context, the
findings of this study can help researchers and professionals to better design educational
experiences based on the individual characteristics of each wearable device.
References
Arefin, M. T., Ali, M. H., & Haque, A. K. M. F. (2017). Wireless Body Area Network: An
Overview and Various Applications. Journal of Computer and Communications,
05(07), 53–64. [Link]
Azzabi, M. S., Kouki, S., & Jemni, M. (2018). Towards using wearable technologies
in mobile learning. 2017 6th International Conference on Information and
Communication Technology and Accessbility, ICTA, 1–6. [Link]
ICTA.2017.8336065
Ching, K. W., & Singh, M. M. (2016). Wearable Technology Devices Security and
Privacy Vulnerability Analysis. International Journal of Network Security & Its
Applications, 8(3), 19–30. [Link]
Saa, P., Mosocoso-Zea, O., & Lujan-mora, S. (2017). Bring Your Own Device ( BYOD ):
Students Perception - Privacy Issues A new trend in education ? In Information
Technology Based Higher Education and Training (ITHET) doi: 10.1109/
ITHET.2017.8067824.
Santos, D. A. A., Szturm, D. R., Castro, L. X., Hannum, J. S. S., & Barbosa, T. A.
(2018). Wearable device for literacy activities with people with down syndrome.
2017 Undergraduate Research Technology Conference, URTC 1–4. [Link]
org/10.1109/URTC.2017.8284204
Seneviratne, S., Hu, Y., Nguyen, T., Lan, G., Khalifa, S., Thilakarathna, K., … Seneviratne,
A. (2017). A Survey of Wearable Devices and Challenges. Communications Surveys
and Tutorials, 19(4), 2573–2620. [Link]
Smita Jhajharia, S. K. Pal, & Seema Verma. (2014). Wearable Computing and its
Application. International Journal of Computer Science and Information
Technologies, Vol. 5(4), 1–6. Retrieved from [Link] 5/
vol5issue04/[Link]
Yordanova, K. (2008). Mobile learning and integration of advanced technologies in
education, 1. [Link]
Grupo de I+D en Tecnologías de la Información (GTI), Universidad del Cauca, Sector Tulcán Edificio FIET
Oficina 422, Popayán, Colombia
Pages: 215–229
Resumen: En minería de datos y big data, contar con datos de buena calidad es
muy importante, por esto en la preparación de estos se contempla entre otras, con
la actividad de selección de instancias. Este artículo presenta un nuevo método de
selección de instancias basado en arreglos de cobertura. El método propuesto se
evaluó y comparó frente a dos clasificadores tradicionales del área, C4.5 (J48 de Weka)
y KNN sobre 26 datasets completos (sin reducción). Los resultados experimentales
son mejores, tanto en la calidad de la clasificación como en el porcentaje de reducción
de instancias, ya que, usando el algoritmo propuesto se logró disminuir el error
de clasificación de 19,4% a 16,9% con fuerza 2 y a 17,6% con fuerza 3, y reducir el
porcentaje de instancias en promedio en un 39.6% (fuerza 2) y un 43.7% (fuerza 3)
para C4.5. Resultados que son similares a los obtenidos para KNN.
Palabras-clave: Algoritmos de clasificación; arreglos de cobertura; Selección de
instancias; KNN; C4.5.
Abstract: In data mining and big data, having good quality data is very important,
therefore in the preparation of these is contemplated among others, with the activity
of instance selection. This paper presents a new method for instance selection based
on covering arrays. The proposed method was evaluated and compared against
two traditional classifiers, C4.5 (J48 in Weka) and KNN over 26 complete datasets
(without reduction). The experimental results are better, both in the quality of the
classification and in the percentage of reduction of instances, since the classification
error was reduced from 19.4% to 16.9% with strength 2 and to 17.6% with strength
3, and reducing the percentage of instances on average by 39.6% (strength 2) and
43.7% (strength 3) for C4.5. Results that are similar to those obtained for KNN.
Keywords: Classification algorithms; Covering Arrays; Instance selection;
KNN; C4.5.
1. Introducción
El descubrimiento de conocimiento en bases de datos (Knowledge Discovery in Databases,
KDD) es el área donde se busca extraer conocimiento útil de grandes conjuntos de datos,
pero los datos primero deben ser pre procesados o depurados. Uno de los pasos más
importantes del preprocesamiento en KDD es la selección de instancias o selección de filas.
El problema de selección de instancias, busca eliminar instancias (filas o registros)
ruidosas, repetidas, erróneas o poco útiles, creando un conjunto de datos más pequeño
que permite predecir la clase de una instancia nueva con la misma precisión (o más alta)
que con el conjunto original completo (Blachnik, 2019). Este proceso de reducción de
datos se vuelve cada vez más importante en muchas aplicaciones, debido a la necesidad
de eficiencia de procesamiento y de almacenamiento (Huan & Motoda, 2001).
El algoritmo KNN, es uno de los más importantes en el aprendizaje automático. Este
algoritmo calcula la distancia entre una instancia a clasificar y cada instancia del conjunto
de entrenamiento. A la nueva instancia a clasificar se le asigna la clase predominante
de las K instancias más cercanas o vecinas. El algoritmo KNN no es practico para
trabajar con dataset grandes, ya que este demanda muchos recursos computacionales
en almacenamiento y tiempo de procesamiento (Wu et al., 2008). En el estado del arte
se presentan diferentes estrategias o métodos para la selección de instancias, muchos
de ellos aplicados a KNN, estos métodos se organizan en dos grupos principales, los
basados en muestreo y los basados en selección de prototipos.
Teniendo en cuenta que uno de los enfoques de solución para la selección de instancias
es el muestreo, en este trabajo se considera el uso de los arreglos de cobertura como
una alternativa factible para proponer un nuevo método. Los arreglos de cobertura
denotados como CA (Covering Arrays), son objetos combinatorios derivados de los
arreglos ortogonales que pueden ser usados para diversos fines (Timaná-Peña, Cobos,
& Torres-Jimenez, 2016), entre ellos, el diseño de experimentos y la automatización de
pruebas de hardware y software.
Los CA permiten generar el menor número de casos de prueba para cubrir todos los
conjuntos de interacciones entre los parámetros objeto de estudio. Estos arreglos tienen
cardinalidad mínima (reducen al mínimo el número de casos de prueba) y cobertura
máxima (garantizan cubrir todas las combinaciones entre los parámetros de entrada
basado en un parámetro denominado fuerza, que define el nivel de la interacción que
se desee cubrir) (Timaná-Peña et al., 2016). Por esto último, es que se les considera una
estrategia viable para la selección de instancias.
En este artículo, se propone un método para selección de instancias basado en arreglos
de cobertura, teniendo en cuenta diferentes niveles de interacción (fuerza) entre las
diferentes instancias del dataset y con la habilidad de trabajar sobre grandes volúmenes
de datos, buscando mantener o mejorar la calidad de la clasificación y reducir
significativamente el tamaño del dataset. Los resultados experimentales muestran que
el método propuesto tiene un buen desempeño en términos de precisión de clasificación
y tasa de reducción de instancias.
2. Trabajos relacionados
A continuación, se presentan los trabajos relacionados (estado del arte) más importantes
en la selección de instancias teniendo en cuenta las dos estrategias principales: Muestreo
y selección de prototipos (Blachnik, 2019)(Olvera-López, Carrasco-Ochoa, Martínez-
Trinidad, & Kittler, 2010).
2.1. Muestreo
El objetivo de las técnicas de muestreo es obtener una muestra representativa, es decir,
una muestra en la que las instancias seleccionadas representen con precisión la población,
donde la aleatoriedad tiene un papel importante. Por supuesto, obtener una muestra
representativa de un gran volumen de datos, es una tarea especialmente desafiante, dada
su naturaleza cambiante y su complejidad cada vez mayor en relación con el número de
instancias. Sin embargo, los métodos ampliamente aceptados para obtener muestras
son múltiples, incluyendo (Webb & Wang, 2016): muestreo aleatorio donde resalta la
propuesta Random Mutation Hill Climbing (RMHC), muestreo estratificado, muestreo
por agrupamiento, muestreo sistemático, muestreo de múltiples capas, muestreo doble
o en dos fases y muestreo progresivo.
and can cause an oversensitivity to noise. This paper has two main purposes. First, it
provides a survey of existing algorithms used to reduce storage requirements in instance-
based learning algorithms and other exemplar-based algorithms. Second, it proposes six
additional reduction algorithms called DROP1–DROP5 and DEL (three of which were
first described inWilson & Martinez, 1997c, as RT1–RT3.
Selección basada en algoritmos evolutivos: Como la reducción de datos se puede
ver como un problema de búsqueda, este se puede resolver utilizando algoritmos
evolutivos (Cano et al., 2003). La idea básica es mantener una población de cromosomas
(individuos), que representan soluciones plausibles al problema que evolucionan con el
tiempo a través de un proceso de competencia y variación controlada. Los algoritmos
evolutivos han obtenido resultados prometedores en la selección de instancias (Reeves
& Bush, 2001). Uno de los algoritmos representativos de este enfoque en selección
de instancias es Cross generational elitist selection Heterogeneous recombination
Cataclysmic mutation algorithm (CHC).
Selección basada en longitud de codificación (EL): estos algoritmos se inspiraron
en el principio de Encoding Length o EL de Cameron-Jones (Cameron-Jones, 1995), el
cual determina qué tan bueno es el subconjunto S al describir T. El algoritmo básico
comienza con una fase de crecimiento que toma cada instancia i en T y la agrega a S, si eso
da lugar a un costo menor que al no agregarla. Al igual que con IB3, la fase de crecimiento
puede verse afectada por el orden de presentación de las instancias (Wilson & Martinez,
2000)and can cause an oversensitivity to noise. This paper has two main purposes.
First, it provides a survey of existing algorithms used to reduce storage requirements
in instance-based learning algorithms and other exemplar-based algorithms. Second,
it proposes six additional reduction algorithms called DROP1–DROP5 and DEL (three
of which were first described inWilson & Martinez, 1997c, as RT1–RT3. El método
Encoding Length Grow (ELGrow) realiza la reducción de instancias, eliminando cada
instancia i en S, sólo si al hacerlo se reduce el costo del clasificador. El método Explore
comienza con el crecimiento y la reducción de S utilizando el método ElGrow, y luego
realiza 1000 mutaciones para tratar de mejorar el clasificador. Cada mutación intenta
agregar una instancia a S, eliminando una de S o intercambiando una en S con una en
T - S, y mantiene el cambio si no aumenta el costo del clasificador.
3. Arreglos de cobertura
Los Arreglos de cobertura son objetos matemáticos en los que se evalúan varios
factores, parámetros o variables de interés, en donde cada factor contiene un cierto
número de posibilidades o valores. Sus aplicaciones abarcan el diseño de experimentos,
biología, análisis de fallas en ingeniería, entre otras (Timaná-Peña et al., 2016), y más
recientemente las pruebas de calidad de software y hardware y el proceso de selección
de características en minería de datos (Dorado, Cobos, Torres-Jimenez, Jimenez, &
Mendoza, 2018; Villegas, Cobos, Mendoza, & Herrera-Viedma, 2018; Vivas, Cobos, &
Mendoza, 2019).
Un CA se denota por CA(N; k, v, t), que corresponde a una matriz de N filas y k columnas,
donde N es el número de experimentos o pruebas, k el número de factores o parámetros,
4. Algoritmo propuesto
El algoritmo propuesto toma el dataset T, calcula el número de filas, busca en un
repositorio (base de datos), el CA que cuente con la cobertura apropiada para este
dataset con base en la fuerza f que el usuario defina. Después recorre una a una, las filas
del CA, creando un dataset S basado en la configuración de cada fila del CA (este define
qué instancias se incluyen o no en el nuevo dataset). Sobre cada dataset se ejecuta el
Inicio
listaResultados = Vacío
coveringArray = ObtenerCoveringArray (T, f)
Para cada fila ∈ coveringArray haga
S = crearCasoPrueba (T, fila)
pct = ejecutarAlgoritmoClasificacion (S, MAS)
Agregar pct, S y |S| a listaResultados
Fin Para
mejoresResultados = seleccionarResultados (listaResultados)
Fin
5. Experimentación
La experimentación se realizó utilizando 26 datasets reconocidos como conjuntos
de prueba en varios estudios, a saber: Banknote, Blood, Car, Climate, Contraceptive,
Dermatology, Diabetes, Ecoli, Fertility, Glass, Haberman, Ionosphere, Iris, Leaf, Libras,
Planning, Qsarbiodegradation, Seeds, Segment, Sonar, Soybean, Spectf, Vowel, Wine,
Yeast y Zoo. La descripción detallada de estos se encuentra en el Repositorio de la
Universidad de California en Irvine (UCI) (Merz & Murphy, 1998).
Para generar los casos de prueba basados en los CA, se usó una fuerza de 2 y de 3, ya
que estas fuerzas han mostrado resultados satisfactorios en términos de efectividad, en
experimentos similares en otras áreas, por ejemplo, una investigación del NIST (National
Institute of Standards and Technology) desarrollada entre 1999 y 2004 reporta que la
mayoría de los errores y fallas del software son causados por uno o dos parámetros, y
muchos menos por tres o más. A este hallazgo se le conoce como la regla de la interacción
y en concreto en pruebas de software implica que con fuerza 3 se logra una detección de
errores y fallos entre el 75% y 98% y con fuerza 6 se logra una virtual detección del 100%
(Kuhn, Kacker, & Lei, 2010). Experimentos futuros incluirán la evaluación de mayores
niveles de fuerza.
Teniendo en cuenta, que este algoritmo es sensible al orden de los datos, se decide
realizar 31 repeticiones del experimento por cada dataset, tomando diferente orden
en las filas y así calcular un valor promedio válido de error y reducción de instancias
(promedios que cumplan con el teorema del límite central).
En la Ilustración 3, se presenta el resumen de los resultados sobre los 26 datasets. El
promedio del porcentaje de error y el promedio del tamaño del dataset original usando
el algoritmo propuesto con fuerza 2 (f2) y fuerza 3(f3) con los clasificadores C4.5 (J48 de
Weka) y 1NN (KNN con k=1 en Weka) y el valor de error obtenido por los clasificadores
con el dataset completo. El menor promedio del porcentaje de error para cada dataset
se indica con negrita. Los promedios de error logrados con el algoritmo propuesto
que son menores al error del dataset completo se resaltan en amarillo, es decir, que la
propuesta aquí planteada mejoró la calidad de los resultados, disminuyendo el error,
y además el número de instancias. Por ejemplo, los resultados del dataset Blood al
aplicar la propuesta aquí planteada con CA de fuerza 2 y 3, y ejecutando el algoritmo
C4.5 obtiene los promedios de error 19,2% y 19,1% respectivamente, estos valores son
menores que el error obtenido al ejecutar el algoritmo C4.5 sobre el dataset completo
(22.7%), además se logra obtener un dataset con sólo el 41,4% (f2) y 45,4% (f3) del
tamaño del dataset original.
En la Ilustración 3 se muestra que el algoritmo aquí propuesto obtuvo para varios
datasets un promedio de porcentaje de error igual o menor que el porcentaje de error
utilizando el algoritmo de clasificación directamente sobre el dataset completo. Se
generaron 104 resultados del promedio de error, para los 26 datasets, con los algoritmos
C4.5, y KNN, con CA de fuerza 2 y 3, de los cuales 72 son menores o iguales (resaltados
en amarillo) que el error obtenido del dataset completo; 38 corresponden a fuerza 2 (18
de C4.5 y 20 de 1NN) y 34 son de fuerza 3 (16 de C4.5 y 18 de 1KK). También se puede
observar que el promedio de los errores obtenidos con los CA de f2 y f3 para el algoritmo
C4.5 son 16,9% y 17.6% respectivamente; de igual manera para el algoritmo 1NN son de
17.3% y 18%. Se puede observar que los resultados del promedio de error, con los CA de
f2 son ligeramente mejores frente a los CA de f3; Además, los CA de f2 obtienen datasets
más pequeños que con f3.
se obtuvo, que tanto el método en fuerza 3, como en fuerza 2, dominan los resultados
obtenidos con el dataset completo, con un 95% de significancia y que entre ellos (fuerza
3 y fuerza 2) no se puede establecer relación de dominancia. Teniendo en cuenta esto
último, también se seleccionó el método propuesto con fuerza 2 por las mismas razones
expresadas en la prueba estadística de C4.5, ya que usa menos tiempo de ejecución y
reduce más filas del dataset original.
Para mejorar la interpretación de los datos, se realizaron unos diagramas de cajas y
alambres sobre los resultados obtenidos con los CA de f2. Estos diagramas, buscan
resumir visualmente y comparar grupos de datos, utilizando la mediana, los cuartiles,
la dispersión y la simetría de la distribución de los datos. Además, permite identificar
los valores atípicos. Esta técnica permite identificar visualmente patrones que de otra
manera podrían estar ocultos en un conjunto de datos.
La Ilustración 4, muestra un diagrama de cajas y alambres, para los 31 resultados de
nuestra propuesta sobre el dataset Haberman, utilizando CA de fuerza 2 y el algoritmo
de clasificación 1NN. Este diagrama consiste en un rectángulo dividido por una línea
vertical indicando la posición de la mediana, a la derecha el tercer cuartil y a la izquierda
el primer cuartil, el segundo cuartil coincide con la mediana. El diagrama tiene como
extremos el valor mínimo (izquierda) y máximo (derecha) de los resultados. Las líneas
que se extienden del rectángulo, se denominan alambres o bigotes, los cuales tienen
un límite de prolongación. Cada dato que no se encuentre en ese rango, se dibuja
individualmente, como un valor atípico. En esta ilustración, la parte izquierda de la caja
es mayor que la ubicada a la derecha, esto implica que es asimétrica a la izquierda y los
porcentajes de error tienden a estar más entre 24,9699% y 27,0968%. El alambre de
la izquierda muestra el resultado menor esperado 22,2222%, sin embargo, existe un
resultado atípico, que se aleja de los valores esperados, 9,2593%, que es mucho menor a
la mayoría de los resultados.
La Ilustración 5 y la Ilustración 6, representan el resumen del porcentaje de error,
después de las 31 repeticiones de la propuesta planteada, utilizando CA de fuerza 2 y
los algoritmos C4,5 y 1NN. En estas ilustraciones se muestra que, la mayoría de los
resultados del porcentaje de error tienden a estar entre 0% y 30%. Al compararlas por
dataset sin importar el clasificador son bastante similares.
Referencias
Blachnik, M. (2019). Ensembles of instance selection methods: A comparative study.
International Journal of Applied Mathematics and Computer Science, 29(1),
151–168.
Brighton, H., & Mellish, C. (2002). Advances In Instance Selection For Instance-Based.
Data Mining and Knowledge Discovery, 6(2), 153–172.
Cameron-Jones, R. . (1995). Instance Selection by Encoding Length Heuristic with
Random Mutation Hill Climbing. In Eighth Australian Joint Conference on
Artificial Intelligence, Canberra (pp. 99-106).
Cano, J. R., Herrera, F., & Lozano, M. (2003). Using evolutionary algorithms as instance
selection for data reduction in KDD: An experimental study. IEEE Transactions on
Evolutionary Computation, 7(6), 561–575.
Dorado, H., Cobos, C., Torres-Jimenez, J., Jimenez, D., & Mendoza, M. (2018). A
Proposal to Estimate the Variable Importance Measures in Predictive Models Using
Results from a Wrapper. Lecture Notes in Computer Science, 11308, 369–383.
Hart, P. (2004). The condensed nearest neighbor rule (Corresp.). IEEE Transactions on
Information Theory, 14(3), 515–516.
Huan, L., & Motoda, H. (2001). Instance Selection and Construction for Data Mining.
Springer, Boston, MA. [Link]
Kibler, D., & Aha, D. W. (2014). Learning Representative Exemplars of Concepts:
An Initial Case Study. In Proceedings of the Fourth International Workshop on
Machine Learning (pp. 24–30). [Link]
5.50006-4
Kuhn, D. R., Kacker, R. N., & Lei, Y. (2010). SP 800-142. Practical Combinatorial
Testing. Gaithersburg, MD, United States: National Institute of Standards &
Technology. [Link]
Merz, C. J., & Murphy, P. M. (1998). UCI repository of machine learning databases.
Retrieved November 1, 2018, from [Link]
Olvera-López, J. A., Carrasco-Ochoa, J. A., Martínez-Trinidad, J. F., & Kittler, J. (2010).
A review of instance selection methods. Artificial Intelligence Review, 34(2),
133–143.
Ramírez-Gallego, S., Krawczyk, B., García, S., Woźniak, M., & Herrera, F. (2017). A
survey on data preprocessing for data stream mining: Current status and future
directions. Neurocomputing, 239, 39–57.
Reeves, C. R., & Bush, D. R. (2001). Using Genetic Algorithms for Training Data Selection
in RBF Networks. In Instance Selection and Construction for Data Mining (pp.
339–356). [Link]
Ritter, G. L., Woodruff, H. B., Lowry, S. R., & Isenhour, T. L. (1975). An Algorithm for
a Selective Nearest Neighbor Decision Rule. IEEE Transactions on Information
Theory, 21(6), 665–669.
Timaná-Peña, J., Cobos, C., & Torres-Jimenez, J. (2016). Metaheuristic algorithms for
building Covering Arrays: A review. Revista Facultad de Ingeniería, 25(43), 31–45.
Villegas, J., Cobos, C., Mendoza, M., & Herrera-Viedma, E. (2018). Feature Selection
Using Sampling with Replacement, Covering Arrays and Rule-Induction Techniques
to Aid Polarity Detection in Twitter Sentiment Analysis. Lecture Notes in Computer
Science, 11238, 467–480.
Vivas, S., Cobos, C., & Mendoza, M. (2019). Covering Arrays to Support the Process
of Feature Selection in the Random Forest Classifier. Lecture Notes in Computer
Science, 11331, 64–76.
Webb, L. M., & Wang, Y. (2016). Techniques for Sampling Online Text-Based Data Sets.
In Big Data (pp. 655-675). [Link]
Wilson, D. R., & Martinez, T. R. (2000). Reduction Techniques for Instance-Based
Learning Algorithms. Machine Learning, 38, 257–286.
Wu, X., Kumar, V., Ross Quinlan, J., Ghosh, J., Yang, Q., Motoda, H., … Steinberg, D.
(2008). Top 10 algorithms in data mining. Knowledge and Information Systems,
14(1), 1–37.
Zille, H., Kottenhahn, A., & Mostaghim, S. (2017). Dynamic Distance Minimization
Problems for dynamic multi-objective optimization. In 2017 IEEE Congress on
Evolutionary Computation, CEC 2017 - Proceedings (pp. 952–959). [Link]
org/10.1109/CEC.2017.7969411
Pontificia Universidad Católica del Ecuador Sede Esmeraldas, 080100, Esmeraldas, Ecuador.
Unidad Educativa Fiscomisional Sagrado Corazón, 080101, Esmeraldas, Ecuador.
Pages: 230–241
1. Introducción
Con el surgir de nuevas tecnologías aparecen nuevos ataques que infringen la seguridad
de los sistemas informáticos lo que provoca una mayor demanda de controles o
salvaguardas para la protección de la información. Sin embargo, algunas organizaciones
dejan de lado la seguridad informática, al ser un ámbito de incredulidad por parte de
dueños de las empresas y ejecutivos, al estimar que no les ocurrirá y no proveen posibles
intromisiones a sus sistemas, por esta razón no cuentan con especialistas o herramientas
para detectar el fraude informático (Burgos y Campos, 2008). Por lo tanto, los activos
que almacenan la información crítica de la empresa tienen vulnerabilidades que son
utilizadas por los atacantes informáticos, y su objetivo principal por lo general es el
acceso a las bases de datos de la organización. Saraswat y Tripathi (2014), indican muchas
formas en que una base de datos es comprometida, por esta razón es necesario enfocarse
en un marco de trabajo que proporcione guías de buenas prácticas, que salvaguarden
la gestión de la seguridad de la información de los interesados (Solarte, Enriquez y del
Carmen, 2015).
En respuesta, la Organización Internacional de Estandarización (ISO) propone la
norma ISO 27000 que permite planificar, ejecutar, verificar y proceder ante fallos e
interrupciones en la seguridad de la información de las infraestructuras (Disterer, 2013).
Específicamente, la norma ISO 27002, interviene en el proceso de implementación de un
sistema de gestión de seguridad de la información, mediante restricciones, excepciones
y controles aplicables como medidas de seguridad informática y a la seguridad de la
información en forma de políticas y procedimientos (Valencia y Orozco, 2017; Solarte,
Enriquez y del Carmen, 2015). La norma se diseñó para ser usada como referencia a
la hora de seleccionar controles dentro del proceso de implantación de un Sistema
de Gestión de Seguridad de la Información (SGSI) o bien como documento guía para
organizaciones que implementen controles de seguridad de la información comúnmente
aceptados (ISO/IEC 27002, 2013).
En el presente trabajo se define un modelo de evaluación de acceso a las bases de datos
de acuerdo con los controles propuestos por la norma ISO 27002. El modelo consiste en
un grupo de 4 componentes basados en las categorías del dominio 9 control de acceso,
y ayuda a determina el nivel de madurez de la seguridad de la información que tiene
la administración de las base de datos verificando el cumplimiento y eficiencia de los
controles implementados.
El presente trabajo está estructurado de la siguiente forma: en la Sección 2 se detalla los
trabajos relacionados, Sección 3 el dominio control de acceso basado en la ISO 27002.
Sección 4 se enmarca el modelo de evaluación y la Sección 5 la metodología. Por último,
la Sección 6 los resultados de la evaluación y en la Sección 7 las conclusiones y trabajos
futuros.
2. Trabajos relacionados
Las empresas implementan sistema de base de datos con el fin de administrar sus datos
y proveer la información a los sistemas informáticos que son utilizados por los usuarios
en la ejecución de sus actividades diarias. Si embargo el control de acceso es la principal
el administrador de sistema gestor de base de datos. Además, las reglas deben estar
especificadas en procedimientos formales, así como las responsabilidades del DBA.
Si existe acceso al gestor de base de datos por medio de la red, debe configurarse la
contraseña a través de un mecanismo de encriptación para evitar que sea escuchada
por usuarios no autorizados. Además, se debe almacenar las acciones de inserción,
modificación, eliminación y lectura de registros de los usuarios por medio de registros
de auditoria para ayudar a detectar de una manera eficaz si se está vulnerando el gestor
de base de datos.
Por otra parte, el gestor de base de datos no debe permitir ver la contraseña al momento de
escribirla, así como configurar un mínimo de tiempo posible de duración de las sesiones
que están inactivas durante un determinado tiempo. Además, evitar configuraciones por
defectos o situar la contraseña en los códigos fuente de los sitios web de la empresa.
5. Metodología de investigación
El modelo se aplicó en dos entidades ubicadas en Ecuador, las cuales estuvieron
de acuerdo en proporcionar información para el presente estudio. Por motivo de
confidencialidad por parte de las empresas colaboradoras, los nombres no son revelados
en el documento por lo tanto se asignó una letra genérica a cada una:
A = Institución privada de 218 empleados en el año 2018. Único responsable de la
administración de las bases de datos. Los gestores de base de datos son SQL Server
estándar con licencia y MySQL.
B = Institución pública de aproximadamente 250 empleados en el año 2018. Posee un
único responsable. Los gestores de base de datos son SQL Server Express y MySQL.
6. Resultado
Una vez realizada todas las preguntas, se evidenció que ambas instituciones tenían
falencias con respecto a la seguridad de la información, debido a que carecen de una
política de control de acceso. Además, los sistemas informáticos son propensos a tener
vulnerabilidades porque sus custodios implementan controles mínimos. Por lo tanto,
los ataques internos se producen por la falta de controles de aplicaciones, es decir tienen
vulnerabilidades que permiten el acceso a las bases de datos, asimismo el descuido del
DBA puede revelar la clave de acceso de los gestores de bases de datos.
Puntuación
Elementos Preguntas
Empresa A Empresa B
Requisitos de 1. ¿Cuenta con una política de control de 1 1
negocio para el acceso basada en los requisitos de negocio y de No definido No definido
control de acceso seguridad de la información?
2. ¿El acceso a las redes y servicios en red lo 3 1
realizan solo los usuarios autorizados? Administrado No definido
Promedio 2 1
Definido No definido
Gestión de accesos 3. ¿Cuenta con un procedimiento de asignación 3 3
de usuario de derechos de acceso en el que contemple el Administrado Administrado
registro y baja de usuarios?
4. ¿Cuenta con un procedimiento formal para 2 4
la asignación y revocación de los derechos de Definido Controlado
acceso de los sistemas?
5. ¿Cuentan con un control en la asignación y 5 5
uso de privilegios de acceso? Optimizado Optimizado
6. ¿Cuentan con un proceso de gestión de la 4 4
información secreta de autenticación de los Controlado Controlado
usuarios?
7. ¿Realizan revisiones de los derechos de 3 3
acceso de usuario? Administrado Administrado
8. ¿Realizan reasignación o retirada de los 2 5
derechos de acceso de usuario cuando un Definido Optimizado
empleado finaliza sus actividades de la empresa?
Promedio 3.16= 3 3.66= 4
Administrado Controlado
Responsabilidad 9. ¿Se realiza controles en el uso de la 5 5
del usuario información secreta de autenticación por parte Optimizado Optimizado
del administrador de base de datos?
Promedio 5 5
Optimizado Optimizado
Control de acceso 10. ¿Cuentan con alguna restricción en el 3 1
a sistemas y acceso a la información y a las funciones de las Administrado No definido
aplicaciones aplicaciones?
11. ¿Existe un procedimiento seguro de inicio 4 2
de sesión? Controlado Definido
12. ¿La empresa cuenta con un sistema para la 4 2
gestión de contraseña? Controlado Definido
13. ¿Existe registros de auditoria donde se 2 2
evidencie las acciones de los usuarios? Definido Definido
14. ¿Existe instalación de actualización del 5 3
gestor de base de datos? Optimizado Administrado
Promedio 3.6 =4 2
Controlado Definido
cuentas. Evitar almacenar contraseñas en texto plano. Se debe contar con sistemas de
gestión de contraseñas que sean interactivos y que aseguraren contraseñas robustas.
Los registros de auditorías son datos que se almacenan en archivos de auditoría y
describen un único evento. Para implementar los controles de autoría se debe revisar
y evaluar el control interno del entorno en que se desarrolla la base de datos. Para
monitorear el acceso. Microsoft Sql Server utiliza la herramienta Sql Server Audit, la cual
permite realizar auditoría en la base de datos a través de la creación de la descripción de
las acciones de los usuarios al realizar modificaciones, esto solo es posible en versiones
de SQL Server Enterprise y Develope.
Los DBA deben revisar los derechos de acceso de usuario en determinados tiempos.
Restringir y comprobar el acceso a usuarios en la tabla user de la base de datos MySQL
como root. Es importante definir una contraseña a root debido a que, por defecto la
cuenta viene sin contraseña.
Además, se debe realizar la retira de los derechos de acceso a la información y a las
instalaciones del procesamiento de información cuando se ha finalizado el contrato de
los empleados y terceras partes como proveedores.
7. Conclusiones
En el presente trabajo se describió un modelo de evaluación que permite conocer el nivel
de madurez de los controles de acceso en la gestión de base de datos, el cual proporciona
un conjunto de preguntas que pueden ser adaptadas a diferentes contextos. Los resultados
determinaron que el modelo de madurez basado en ISM3 logra identificar un correcto
nivel de cada uno de los elementos del modelo propuesto. Además, la triangulación de las
técnicas entrevista, observación y prueba técnica contribuyen a un resultado más preciso
en la evaluación, especialmente la utilización de herramientas como SqlMap. Por último, la
aplicación del modelo de evaluación en las dos empresas evidenció que la empresa A obtuvo
el nivel de madurez Controlado, a diferencia de la empresa B que obtuvo Administrado.
Trabajos futuros
Se considera como trabajos futuros el acoplamiento al modelo de evaluación a los
demás dominios de la norma con el fin de ser ajustados para brindar mayor facilidad de
implementación de controles.
Referencias
Azán, Y., Bravo, L., Rosales, W., Trujillo, D., Garcia, E., & Pimentel, A. (2014). Solución
basada en el Razonamiento Basado en Casos para el apoyo a las auditorías
informáticas a bases de datos. Revista Cubana de Ciencias Informáticas, 8(2),
52–69. Retrieved from [Link]
Barinas, A., Alarcón, A., y Callejas, M. (2014). Vulnerabilidad de ambientes virtuales de
aprendizaje utilizando SQLMap, RIPS, W3AF y Nessus. Ventana Informática. (30).
doi: [Link]
yasmanighters@[Link],akcabrera@[Link], [Link]@sdas-group.
com,teresasanchez@[Link], rmiranda@[Link]
1
SDAS Group, Urcuqui, Ecuador.
2
Universidad Técnica del Norte, Ibarra, Ecuador,.
3
Universidad Yachay Tech, Urcuquí, Ecuador
4
Universidad Indoamericana, Quito, Ecuador.
5
Universidad de Cienfuegos, Cienfuegos, Cuba.
Pages: 242–255
Abstract: Network codes have been developed to facilitate the integration of power
plants into the electrical system; a specific case is that concerning the performance
of large scale photovoltaic power plants, which represents a drawback for operators
of transmission systems due to the way in which solar irradiance varies during the
day. The present study is focused on a group of models that are based on dynamic
programming with recursive algorithms. Broadly, such algorithms may significantly
benefit to the decision making in the field of the optimization of the photovoltaic
systems. The main contribution of this work lies on the the compilation of a group
of models whose recursive algorithms allow evaluating each stage of a given process
and related to a group of parameters that can be controlled within a dynamic model
whose nuances vary depending on other submodels associated with some families
of classic models of linear and nonlinear programming.
1. Introduction
There are many problems that can be addressed in the field of electrical engineering
from the point of view of optimization (Kamaruzzaman, 2015), however, the issue is
little known and even in the electrical engineering classrooms the various models of
operations research are not socialized that could greatly expedite the use of resources and
the optimization of parameters associated with the different branches of the discipline.
Tracking the Maximum Power Point: Solar panels are an arrangement of several cells
or cells that transform the radiation caused by the sun into electrical energy. Each
photovoltaic cell has a single optimum point of operation, in which the product of the
current by the voltage is maximum and is called as point of maximum power. This
point changes rapidly depending on factors externalities such as temperature and solar
radiation, which makes the tracking of the maximum power point or MPPT (Maximum
Power Point Tracking) an essential part in a photovoltaic system. Photovoltaic power
plants present some problems such as static and dynamic shading that can considerably
reduce their performance. In particular, the effect of dynamic shading due to cloudiness
is often forgotten in the optimal design stage (Kamaruzzaman, 2015).
Operation in Micro Grids: Trough the automatic management of photovoltaic panels,
it is prioritized the improvement of the energy efficiency of the photovoltaic generation
which acts on the investors and depend on the favorable meteorological conditions.
In this way we can operate in the working area of the inverters by connecting and
disconnecting solar panels depending on the different hours of the day and unfavorable
weather conditions (Nagalaxmi & Chary, 2013).
Optimal design of PV systems. Photovoltaic systems connected to a network with solar
tracking often have losses due to the Joule effect produced in the connected conductors
of the network. The problem of minimizing said losses through the design and sizing of
said photovoltaic system is of interest due to the various ways in which the monitoring
structures can be dimensioned with their respective typology and distribution in the
terrain studied (Mellit, 2007).
Table 1 – Mathematical methods to approach the solution of frequent problems of photo- voltaic energy
Photovoltaic energy has abandoned its first stages of development and is entering
a deployment phase. The following section proposes a basic structure that contains
guidelines for the resolution and implementation of algorithms based on dynamic
models using Wolfram Language. This language evolves on clear principles and a classy
unified symbolic structure to create what is emerging as the world’s most productive
programming language and the first true computational communication language.
However, the most important thing lies in the efficiency and location of problems whose
mathematical models can reflect a situation as close as possible to reality. In this context,
we talk about a data analysis based on the analysis of the states, which is very helpful
when making the decisions under certainty.
(1)
(2)
...
(3)
...
(4)
(5)
An optimal policy has the property that whatever the initial state and decision, the
following decisions constitute an optimal policy with respect to the state resulting from
the first decision. If we call f the cost function corresponding to the optimal policy, the
principle of optimality can be expressed as follows:
(6)
(7)
For this case we assume that the optimal decision of the power curtailment will be given
in the form:
(8)
The previous eq. (8) represents a solution algorithm applied in other spaces to obtain
a power reduction according to the existing cloudiness, however by its analogy with
the aforementioned dynamic models, it is valid to analyze the optimality principle of
Bellman with respect to the solution algorithm used, which will be a focus of discussion
of the present section. For a better understanding of the relationship between the
solution algorithm and the mathematical model, we assume the following:
For this model, the day will be divided in several parts that are the stages (i) of the model.
Each stage i represents a constant time in which the system calculates the Maximum
Power Point (MPP), if the MPP is calculated every 5 minutes, then is
equivalent to minutes where the system collects MPPT eq. (9).
(9)
The range of active power values that can be signed in the stage i can be given as:
(10)
where is the maximum power point in stage i and is the maximum power point
in stage i+1
Considering the eq. (10), the optimal power function in stage i can be defined
depending on the range of active power and also on the optimized value of active power
for the next stage eq. (11)
(11)
(12)
13
The decision of the maximum value possible between the current power and the
power can be expressed as eq. (14):
(14)
So, the optimal decision for each stage i is written in the form eq. (15):
(15)
The results of a state i are presented in Figure 1 where the decision policy eq. (11) at
this stage is optimal compared to the previous initial stage (6:00 a.m. and 8:00 a.m.),
and with respect to the average of the maximum power values of the stage for which
the curtailment was performed, which satisfies Bellman’s optimality principle. The
algorithm used is based on the previous behavior of solar radiation during a common
day. Its use consists in facilitating continuous decisions in a period of one day of 12 hours
with a frequency of change every two hours.
Figure 1 – Suggested power reference between 8:30 a.m. and 10:30 a.m. considering Kb=0.85
Figure 2 shows the operation of the algorithm using dynamic programming. Each point
corresponds to the maximum power value which is suggested by a tracking system based
on this type of search. The objective of performing curtailment is precisely to set values
that correspond to the balance of the system so that solar energy is harnessed.
The result of this decision is a recursive function eq. (15) indicates the new active power
value that the PV generator must follow for each stage. This model is considering the
possible maximum power for each solar irradiance at each stage and the optimal possible
power considering different sky conditions.
The proposed model and the data from the PVPP are introduced in the software
“Wolfram Mathematica 11.2”. To simulate the model, the day (from 6h30 to 18h30) is
divided in six parts of two hours each one. As two hours is considered and the data taken
is every five minutes, the number of stages is 24. So, the model has to choose the optimal
solution considering the maximum power forecasted for every five minutes for the next
two hours and the cloudiness. In this case the assumed clarity index is 0.78.
For instance, the maximum power that the PVPP generates from 8:30 to 10:30 is
plotted in Figure 3. It can be seen that the active power varies each five minutes that
depends on the solar irradiance. Applying, the optimization tool created and considering
the cloudiness, the new active power reference for these two hours is 0.5 p.u as it is
illustrated in Figure.
3. Conclusions
Regardless of the models used to treat the problems in the use of solar energy in the
photovoltaic field, there is a possibility to analyze the problems presented from the point
of view of the analysis of dynamic models using recursive algorithms to obtain optimum
policies in short time intervals.
If, given a subsequence of decisions, it is always known which is the decision that must
be taken next to obtain the optimal sequence, the problem is elementary and is solved
trivially taking one decision after another, what is known as voracious strategy.
If we can identify any subsequence of decisions, that have the same final state then it
must also be optimal with respect to the corresponding subproblem as affirmed by the
principle of optimality of Richard-Bellman.
Finally, the proposed study case is part of a group of experiments carried out in Ibarra,
Ecuador, in order to optimize the energy resources of the photovoltaic field.
4. Future work.
Future work aims to solve various problems of the here raised through a dynamic model
whose purpose is to reduce costs without losing quality in the use of solar energy.
References
Ahmad, J. (2010). A fractional open circuit voltage based maximum power point
tracker for photovoltaic arrays. 2010 2nd International Conference on Software
Technology and Engineering, 1, V1–247–V1–250. [Link]
ICSTE.2010.5608868
Akella, A. K., Saini, R. P., & Sharma, M. P. (2009). Social, economical and environmental
impacts of renewable energy systems. Renewable Energy, 34(2), 390–396. https://
[Link]/10.1016/[Link].2008.05.002
Ali, A., Mohd Nor, N., Ibrahim, T., & Fakhizan Romlie, M. (2018). Sizing and
placement of solar photovoltaic plants by using time-series historical weather
data. Journal of Renewable and Sustainable Energy, 10(2), 023702. [Link]
org/10.1063/1.4994728
Atallah, A. M., Abdelaziz, A. Y., & Jumaah, R. S. (2014). IMPLEMENTATION OF
PERTURB AND OBSERVE MPPT OF PV SYSTEM WITH DIRECT CONTROL
METHOD USING BUCK AND BUCK- BOOST CONVERTERS. 1(1), 14.
Bahari, M. I., Tarassodi, P., Naeini, Y. M., Khalilabad, A. K., & Shirazi, P. (2016).
Modeling and simulation of hill climbing MPPT algorithm for photovoltaic
application. 2016 International Symposium on Power Electronics, Electrical
Drives, Automation and Motion (SPEEDAM), 1041–1044. [Link]
SPEEDAM.2016.7525990
Bank, J., Mather, B., Keller, J., & Coddington, M. (2013). High Penetration
Photovoltaic Case Study Report (N.o NREL/TP-5500-54742, 1062441). https://
[Link]/10.2172/1062441
Biswas, M., & Mohan, C. K. (2015). Algorithms for the Implementation of a Dynamic
Electrical Energy Pricing Policy. Procedia Computer Science, 70, 668–675. https://
[Link]/10.1016/[Link].2015.10.103
Bosch, J. L., López, G., & Batlles, F. J. (2008). Daily solar irradiation estimation over
a mountainous area using artificial neural networks. Renewable Energy, 33(7),
1622–1628. [Link]
Bouselham, L., Hajji, M., Hajji, B., & Bouali, H. (2017). A New MPPT-based ANN for
Photovoltaic System under Partial Shading Conditions. Energy Procedia, 111, 924–
933. [Link]
Cao, J., & Lin, X. (2008). Application of the diagonal recurrent wavelet neural
network to solar irradiation forecast assisted with fuzzy technique. Engineering
Applications of Artificial Intelligence, 21(8), 1255–1263. [Link]
engappai.2008.02.003
Charron, R., & Athienitis, A. (2006). Design and Optimization of Net Zero Energy Solar
Homes. ASHRAE Transactions, 12.
Chekired, F., Larbes, C., Rekioua, D., & Haddad, F. (2011). Implementation of a MPPT
fuzzy controller for photovoltaic systems on FPGA circuit. Energy Procedia, 6, 541–
549. [Link]
Comparative Study of Different Hill Climbing MPPT through Simulation and
Experimental Test Bed. (2014). Recuperado de [Link]
publication/280245647_Comparative_Study_of_Different_Hill_Climbing_
MPPT_through_Simulation_and_Experimental_Test_Bed
Das, P. (2016). Maximum Power Tracking Based Open Circuit Voltage Method for PV
System. Energy Procedia, 90, 2–13. [Link]
Denholm, P., & Margolis, R. M. (2007). Evaluating the limits of solar photovoltaics (PV)
in traditional electric power systems. Energy Policy, 35(5), 2852–2861. https://
[Link]/10.1016/[Link].2006.10.014
DERSHOWITZ, M., Ilsen, K., & ZAUHAR, R. J. (2013). Patent N.o WO2013040016A1.
Recuperado de [Link]
Diakaki, C., Grigoroudis, E., Kabelis, N., Kolokotsa, D., Kalaitzakis, K., & Stavrakakis,
G. (2010). A multi-objective decision model for the improvement of energy
efficiency in buildings. Energy, 35(12), 5483–5496. [Link]
energy.2010.05.012
Du, E., Zhang, N., Hodge, B.-M., Kang, C., Kroposki, B., & Xia, Q. (2018). Economic
justification of concentrating solar power in high renewable energy penetrated
power systems. Applied Energy, 222, 649–661. [Link]
apenergy.2018.03.161
Effects of partial shading on Photovoltaic with advanced MPPT scheme. (2012).
Recuperado de [Link]
of_partial_shading_on_Photovoltaic_with_advanced_MPPT_scheme
Essefi, R. M., Souissi, M., & Abdallah, H. H. (2014). Maximum Power Point Tracking
Control Using Neural Networks for Stand-Alone Photovoltaic Systems. International
Journal of Modern Nonlinear Theory and Application, 03(03), 53–65. [Link]
org/10.4236/ijmnta.2014.33008
Farhad Azadivar, John(Jian) Wang. (2000). Facility layout optimization using
simulation and genetic algorithms: International Journal of Production
Research: Vol 38, No 17. Recuperado de [Link]
abs/10.1080/00207540050205154?journalCode=tprs20
Generation System - an overview ScienceDirect Topics. (2019). Recuperado de https://
[Link]/topics/engineering/generation-system
Gevorkian, P. (2016). Solar Power Generation Problems, Solutions and Monitoring.
Cambridge University Press.
Ghasemi, M. A., Mohammadian Foroushani, H., & Parniani, M. (2016). Partial Shading
Detection and Smooth Maximum Power Point Tracking of PV Arrays Under
PSC. IEEE Transactions on Power Electronics, 31(9), 6281–6292. [Link]
org/10.1109/TPEL.2015.2504515
Glaser, C. (2012). Easy solar-panel maximum-power-point tracking for pulsed-load
applications. 5.
Gómez-Lorente, D., Triguero, I., Gil, C., & Espín Estrella, A. (2012). Evolutionary
algorithms for the design of grid-connected PV-systems. Expert Systems with
Applications, 39(9), 8086–8094. [Link]
Haes, A., Hassan, & Ghassan, H. (2019). Handbook of Research on Smart Power System
Operation and Control. IGI Global.
Heslop, S., MacGill, I., Fletcher, J., & Lewis, S. (2014). Method for Determining a PV
Generation Limit on Low Voltage Feeders for Evenly Distributed PV and Load.
Energy Procedia, 57, 207–216. [Link]
Hill climbing techniques for tracking maximum power point in solar photovoltaic
systems - A review. (2013). Recuperado de [Link]
publication/288128372_Hill_climbing_techniques_for_tracking_maximum_
power_point_in_solar_photovoltaic_systems_-_A_review
Hohm, D. P., & Ropp, M. E. (2003). Comparative study of maximum power point
tracking algorithms. Progress in Photovoltaics: Research and Applications, 11(1),
47–62. [Link]
Kamaruzzaman, Z. (2015). Effect of grid-connected photovoltaic systems on static
and dynamic voltage stability with analysis techniques - a review. PRZEGLĄD
ELEKTROTECHNICZNY, 1(6), 136–140. [Link]
Karimi, M., Mokhlis, H., Naidu, K., Uddin, S., & Bakar, A. H. A. (2016). Photovoltaic
penetration issues and impacts in distribution network – A review. Renewable
and Sustainable Energy Reviews, 53, 594–605. [Link]
rser.2015.08.042
Kilkis, B. I. (2004). An Exergy Aware Optimization and Control Algorithm for Sustainable
Buildings. International Journal of Green Energy, 1(1), 65–77. [Link]
org/10.1081/GE-120027884
Kiriş, B., Bingöl, O., Şenol, R., & Altintaş, A. (2016). Solar Array System Layout
Optimization for Reducing Partial Shading Effect. Acta Physica Polonica A, 130(1),
55–59. [Link]
Lasheen, M., Rahman, A. K. A., Abdel-Salam, M., & Ookawara, S. (2016). Performance
Enhancement of Constant Voltage Based MPPT for Photovoltaic Applications Using
Genetic Algorithm. Energy Procedia, 100, 217–222. [Link]
egypro.2016.10.168
Leedy, A. W., & Aganah, and K. A. (2012). A constant voltage MPPT method for a
solar powered boost converter with DC motor load. 2012 Proceedings of IEEE
Southeastcon, 1–6. [Link]
Lin, X., Wang, Y., Yue, S., Shin, D., Chang, N., & Pedram, M. (2012). Near-optimal,
dynamic module reconfiguration in a photovoltaic system to combat partial shading
effects. Proceedings of the 49th Annual Design Automation Conference on - DAC
’12, 516. [Link]
Lokanadham, M., Student, P., & Bhaskar, K. V. (2012). Incremental Conductance Based
Maximum Power Point Tracking (MPPT) for Photovoltaic System. International
Journal of Engineering Research And, 2(2), 5.
Mellit, A. (2007). Sizing of photovoltaic systems: a review. 10.
Mellit, A., Kalogirou, S. A., Shaari, S., Salhi, H., & Hadj Arab, A. (2008). Methodology
for predicting sequences of mean monthly clearness index and daily solar radiation
data in remote areas: Application for sizing a stand-alone PV system. Renewable
Energy, 33(7), 1570–1590. [Link]
Messalti, S., Harrag, A. G., & Loukriz, A. E. (2015). A new neural networks MPPT
controller for PV systems. IREC2015 The Sixth International Renewable Energy
Congress, 1–6. [Link]
Meyer, R., Sommer, L., Dildey, F., Haack, L., & Ringlstetter, S. N. (2016). Techno-
Economic Optimization of Photovoltaic Plant Layout by Using Design of Experiments
Techniques. 32nd European Photovoltaic Solar Energy Conference and Exhibition,
2432–2435. [Link]
Nagalaxmi, P., & Chary, M. V. (2013). Efficient Energy Management System with Solar
Energy. 3(5), 4.
Nikhil, P. G., & Subhakar, D. (2012). An improved algorithm for photovoltaic system sizing.
Energy Procedia, 14, 1134–1142. [Link]
Noguchi, T., Togashi, S., & Nakamoto, R. (2002). Short-current pulse-based maximum-
power-point tracking method for multiple photovoltaic-and-converter module
system. IEEE Transactions on Industrial Electronics, 49(1), 217–223. [Link]
org/10.1109/41.982265
Patel, U., Sahu, D., & Tirkey, D. (2013). Maximum Power Point Tracking Using Perturb
& Observe Algorithm and Compare With another Algorithm. 2(2), 8.
Popescu, D., Gharbi, A., Stefanoiu, D., & Borne, P. (2017). Process Control Design for
Industrial Applications. John Wiley & Sons.
Putri, R. I., Wibowo, S., & Rifa’i, M. (2015). Maximum Power Point Tracking for
Photovoltaic Using Incremental Conductance Method. Energy Procedia, 68, 22–
30. [Link]
Rau, J. (2013). Ecodesign of large-scale photovoltaic (PV) systems with multi-objective
optimization and Life-Cycle Assessment (LCA). 136.
Rekioua, D., & Matagne, E. (2012). Optimization of Photovoltaic Power Systems:
Modelization, Simulation and Control. Springer Science & Business Media.
Safari, A., & Mekhilef, S. (2011). Incremental conductance MPPT method for PV systems.
2011 24th Canadian Conference on Electrical and Computer Engineering(CCECE),
000345–000347. [Link]
Sahu, T. P., Dixit, T. V., & Kumar, R. (2014). Simulation and Analysis of Perturb and
Observe MPPT Algorithm for PV Array Using ĊUK Converter. 12.
Siraganyan, K., Perera, A. T. D., Scartezzini, J.-L., & Mauree, D. (2019). Eco-Sim: A
Parametric Tool to Evaluate the Environmental and Economic Feasibility of
Decentralized Energy Systems. Energies, 12(5), 776. [Link]
en12050776
1
Universidad Técnica del Norte, Av. 17 de julio, 1001051, Ibarra, Ecuador.
Pages: 256–267
1. Introducción
La realidad aumentada (AR) es una tecnología emergente que a través de la superposición
de contenido virtual asociado a la vista de la cámara de un dispositivo (Zhang, Han, &
Hui, 2018) permite visualizar imágenes en dos o tres dimensiones con las cuales pueden
interactuar los usuarios (Jamali, Shiratuddin, Wong, & Oskam, 2015); sus inicios se
evocan a la década de los años 60 (Bond et al., 2019). Actualmente se están desarrollando
proyectos de AR en diferentes áreas; así en medicina se ha construido un demo en un
cartel de forma humana en la que se pueden ver datos relacionados con la salud (Colley,
2015); en arquitectura se identifican problemas y mejoras con juegos de AR basados
en la ubicación mediante la investigación de Kkongalmon (Youm, Seo, & Kim, 2019);
en el ámbito educativo se han construido varias aplicaciones para áreas distintas, tal
es el caso de una app que facilita el aprendizaje en la botánica (Nobnop, Wongwatktit,
Wongta, & Soponronnarit, 2018) o en el área de informática una metodología para el
desarrollo del aprendizaje en programación (Daniela & Velasco, 2019); en mecánica
se ha realizado un motor de gasolina que simula la combustión (Abdullah, Mulyanti, &
Rohendi, 2018); éstas entre otras que evidencian el uso versátil de esta tecnología; sin
embargo la elección de la herramienta RA para construir los productos representa una
difícil decisión.
Frente a la variedad y creciente desarrollo de apps RA, esta investigación se enfoca en
la calidad de software, tema de gran importancia en el ciclo de vida de un producto
(Yang, 2012); en este sentido se han desarrollado estudios con el estándar International
Organization for Standardization (ISO) específicamente con la norma ISO/IEC 25000
conocida como SQuaRE (Software Product Quality Requirements and Evaluation) la
cual constituye una evolución de la norma ISO/IEC 9126 (Calabrese et al., 2018) con
el objetivo de evaluar la calidad del producto de software, aplicando la verificación y
validación de algunas características seleccionadas (Mendoza, Kalinowski, Souza, &
Felderer, 2019). La familia de normas ISO / IEC 25010 ha sido adoptada en distintos
proyectos, (Karnouskos, Sinha, Leitao, Ribeiro, & Strasser, 2018) lo aplican en su
investigación como paso inicial para la automatización industrial.
El objetivo de la investigación se centró en la utilización de la norma ISO/IEC 25010
sobre dos aplicaciones creadas en herramientas RA distintas: Vuforia y Wikitude y
desarrolladas con el motor de programación Unity, para identificar la eficiencia en el
desempeño a través de sus subcaracterísticas: Comportamiento en el tiempo y utilización
de recursos, con el afán de identificar la herramienta RA que tiene mejor rendimiento en
la ejecución de aplicaciones RA, proporcionando información que debería considerarse
a la hora de elegir una herramienta para la creación de productos.
Ecuación: (1)
En el caso de la app constituye el tiempo que transcurre desde que se activa la cámara
(pantalla negra) hasta que se visualiza el objeto 3D.
Métrica: Tiempo de espera
Propósito: Obtener el tiempo desde que se envía una instrucción para que inicie un
trabajo, hasta que lo completa
Método de aplicación: Tomar el tiempo desde que se inicia un trabajo hasta completarlo.
Entradas: A= Tiempo cuando se inicia un trabajo, B = Tiempo en completar el trabajo
Ecuación: (2)
Ecuación: (3)
Hardware. Adicionalmente se verificó el uso de CPU con una prueba de Robo con la
herramienta integrada en Firebase Test Lab para Android; sin embargo, ninguna de las
apps señaladas permitió obtener el valor especificado en el estándar para la aplicación RA,
ya que no permiten separar las operaciones internas del dispositivo de las aplicaciones
adicionales en ejecución, generando valores variados e inestables.
Para la obtención de datos del uso de memoria se experimentó con siete herramientas
gratuitas descargadas de Google Play para el sistema operativo Android: All-In-
One Toolbox, Antutu, Memory info, CPU Indicator, Cpu Meter, CPU-Z, Información del
Hardware, de las cuales se seleccionó CPU Indicator ya que ésta muestra el consumo
de memoria en la misma pantalla que utilizan las aplicaciones de RA.
Métrica: Uso de la memoria
Propósito: Verificar la cantidad de memoria usada para realizar una tarea.
Método de aplicación: Medir la cantidad total de memoria y la cantidad de espacios de
memoria que realmente es usado para realizar una tarea.
Valores de entrada: A = Cantidad de espacios de memoria que realmente es usado para
realizar una tarea, B = Cantidad total de espacios de memoria
Ecuación: (4)
Para la obtención de este valor se utilizó la app CPU Indicator, la cual permite identificar
el porcentaje de memoria usada al activar la app RA. Dado que la métrica exige un valor,
se utiliza una regla de tres simple para obtener el valor requerido. Se registra el uso de
memoria antes de abrir la app y el uso de memoria una vez que se visualiza el objeto 3D.
Capacidad o límites máximos de funcionamiento
Esta característica se refiere a la capacidad de respuesta del software cuando funciona
en línea. Se mide a través de tres métricas: i) número de peticiones en línea, ii) número
de accesos simultáneos y iii) el ancho de banda. Cabe indicar que esta característica no
es parte de este estudio ya que las aplicaciones no se ejecutan en línea, sino que debe ser
instalado en el dispositivo móvil.
De acuerdo con los resultados obtenidos, se puede observar que únicamente la variable
tiempo de espera en las dos herramientas RA y tiempo de respuesta en Vuforia alcanzan
un valor mayor o igual a 0,05, por lo que para la presentación de resultados se aplica
la estadística descriptiva de la media y mediana. El gráfico 1 corrobora los resultados
obtenidos con la prueba de Shapiro Wilk.
3. Resultados
Para obtener los resultados respecto a la eficiencia de desempeño aplicando la normativa
ISO/IEC/25010 se definieron los valores de algunos parámetros de acuerdo a los datos
obtenidos en la fase experimental para cada una de las subcaracterísticas, adecuándolos
a la funcionalidad de las aplicaciones desarrolladas. A continuación, se detallan los
campos requeridos en la normativa para generar la valoración de calidad.
Sub Métrica Peor Valor Aplica Entradas Salida Métrica Sub Total
Caracte- caso Esperado /10 total
rística A B T X
Tiempo de >10 0.20 seg Si 2,53 2,79 0,26 9,74
respuesta seg
Comportamiento
espera seg
Rendimi- 0 =30 Seg Si 11,00 30 0,37 9,17 7,23
ento
9,66
Utilización No
de CPU
Utilización de
memoria GB 2,43
Utilización No
dispositi-
vos de E/S
De igual forma la tabla 4 muestra los resultados de la normativa aplicada sobre la app
desarrollada en Wikitude, que obtiene un resultado de 7,86 puntos sobre 10, alcanzando
un nivel de calificación Aceptable y un grado de satisfacción Satisfactorio.
Sub Métrica Peor Valor Aplica Entradas Salida Métrica Sub Total
Caracte- caso Esperado /10 total
rística
A B T X
Tiempo de >1 seg 0.5 seg Si 2,22 3,15 0,93 9,07
Comportamiento
respuesta
Tiempo de >10 4 seg Si 0,00 3,15 3,15 6,85
del tiempo
5,44
espera seg
Rendimi- 0 =30 Seg Si 7,00 30 0,23 5,83
ento
Utilización No 7,86
de CPU
Utilización > 0.5 0.25 GB Si 1,91 2,24 0,33 9,67
Utilización de
memoria GB 2,42
recursos
Utilización No
dispositi-
vos de E/S
Los tiempos más bajos obtenidos en Vuforia influyen sobre el rendimiento, en una
relación inversamente proporcional, ya que mientras en Vuforia se pueden ejecutar
una mediana de 12 tareas en 30s, en Wikitude alcanza únicamente 8. En el caso de la
memoria también Vuforia usa menos espacios memoria 0,27GB respecto a los 0,33Gb
de Wikitude.
En la Figura 3 se puede visualizar como las medias de las variables medidas en Vuforia
son menores a las obtenidas con Wikitude.
4. Conclusiones
Al ser la eficiencia de desempeño un factor importante que forma parte de la calidad de
software se observa que Vuforia, genera tiempos de respuesta y de espera que cumplen
con los valores deseados y que influyen en un mejor rendimiento, utilizando menos
espacios memoria, recurso importante en los dispositivos móviles.
Es importante señalar que, pese a que en el proyecto se especifica el uso de un único
smartphone, se realizaron pruebas con dos dispositivos adicionales, uno de mejores
características y otro de especificaciones menores, pero con resultados similares.
Referencias
Abdullah, A. G., Mulyanti, B., & Rohendi, D. (2018). Virtual gasoline engine based on
augment reality for mechanical engineering education. 16002, 1–6.
Bond, A., Neville, K., Mercado, J., Massey, L., Wearne, A., & Ogreten, S. (2019).
Evaluating Training Ef fi cacy and Return on Investment for Augmented Reality :
A Theoretical Framework (Vol. 1). [Link]
Calabrese, J., Muñoz, R., Pasini, A., Esponda, S., Boracchia, M., & Pesado, P. (2018).
Assistant for the evaluation of software product quality characteristics proposed by
ISO/IEC 25010 based on GQM-defined metrics. Communications in Computer and
Information Science, 790, 164–175. [Link]
3_16
Colley, A. (2015). Exploring AR Poster as an Interface to Personal Health Data. (Mum),
422–425.
Daniela, G., & Velasco, M. P. (2019). Augmented Reality as a Methodology to Development
of Learning in Programming. 1, 327–340. [Link]
05532-5
ISO, I. O. for. (2019). ISO 25010. Retrieved June 28, 2019, from [Link]
[Link]/normas-iso-25000/iso-25010
Jamali, S. S., Shiratuddin, M. F., Wong, K. W., & Oskam, C. L. (2015). Utilising Mobile-
Augmented Reality for Learning Human Anatomy. Procedia - Social and Behavioral
Sciences, 197(February), 659–668. [Link]
Karnouskos, S., Sinha, R., Leitao, P., Ribeiro, L., & Strasser, T. I. (2018). Assessing
the Integration of Software Agents and Industrial Automation Systems with ISO/
IEC 25010. Proceedings - IEEE 16th International Conference on Industrial
Informatics, INDIN 2018, 61–66. [Link]
Mendoza, I., Kalinowski, M., Souza, U., & Felderer, M. (2019). Relating Verification
and Validation Methods to Software Product Quality Characteristics: Results of
an Expert Survey. [Link]
Nobnop, R., Wongwatktit, C., Wongta, J., & Soponronnarit, K. (2018). A Development
of 3D Augmented Reality Mobile Application to Facilitating Ecotourism-based
Herbal Learning in MFU Botanical Garden. The 26th International Conference on
Computers in Education, 563902.
Salazar, F., Pineda, C., Arciniega, S., & Cervantes, N. (2019). Comparativa Técnica De
Herramientas Para Realidad Aumentada: Wikitude, Vuforia Y Artoolkit. Axioma,
2(19), 86–96. [Link]
Yang, H. (2012). Measuring software product quality with ISO standards base on fuzzy
logic technique. Advances in Intelligent and Soft Computing, 137 AISC, 59–67.
[Link]
Youm, D., Seo, S., & Kim, J.-Y. (2019). Design and development methodologies of
Kkongalmon, a location-based augmented reality game using mobile geographic
information. EURASIP Journal on Image and Video Processing, 2019(1), 1. https://
[Link]/10.1186/s13640-018-0395-2
Zhang, W., Han, B., & Hui, P. (2018). Demo: Low Latency Mobile Augmented Reality
with Flexible. 829–831. [Link]
1
Facultad de Ingeniería y Ciencias Aplicadas, Universidad de las Américas, 170122, Quito, Ecuador.
2
Departamento de Automatización y Control, Escuela Politécnica Nacional, 170525, Quito, Ecuador.
3
Escuela Superior de Ingeniería y Tecnología, Universidad Internacional de La Rioja, 26006, Logroño,
España.
Pages: 269–281
Resumen: La naturaleza y las condiciones propias del adulto mayor hacen que
éste sea propenso a enfermedades y situaciones en donde su integridad física puede
verse afectada; donde, las caídas son uno de los factores de mayor riesgo. En este
artículo como principal aporte, se realiza un análisis sobre el efecto de la reducción
del espacio de características usadas para el proceso de clasificación mediante la
aplicación de la Matriz de Pearson. Para tal efecto, se presenta un análisis comparativo
mediante métricas de 3 algoritmos: naive bayes, máquinas de soporte vectorial y
redes neuronales en la detección de caídas. Las señales utilizadas son aceleraciones
en tres ejes obtenidas de la base de datos del Institute of Communications and
Navigations correspondiente a muestras de 16 sujetos masculinos y femeninos de
entre 23 y 50 años. Los resultados muestran que naive bayes presenta el mejor
desempeño considerando una reducción en las características.
Palabras-clave: ANN, SVM, Naive Bayes, Matriz de Pearson, Acelerómetros.
Abstract: The nature and conditions of the elderly make it prone to diseases and
situations where their physical integrity may be affected; where falls are one of the
highest risk factors. In this article as a main contribution, an analysis is carried
out on the effect of the reduction of the space of characteristics in the classification
process through the application of the Pearson Matrix. For this purpose, a
comparative analysis based on metrics of 3 algorithms is presented: naive bayes,
vector support machines and neural networks in the detection of falls. The signals
used are accelerations in three axes obtained from the database of the Institute of
Communications and Navigations corresponding to samples of 16 male and female
subjects between 23 and 50 years old. The results show that naive bayes has the best
performance considering the reduction in the characteristics.
1. Introducción
Las caídas se consideran uno de los incidentes más peligrosos que afectan a las
personas mayores, causando problemas fisiológicos y psicológicos. Es así que, el 47%
de las personas que han sufrido caídas y que no sufren lesiones, no pueden levantarse
sin ayuda (Yu et al., 2013) y se considera que las caídas también son la segunda causa
de muerte no intencional con un estimado de 424.000 muertes en todo el mundo
(Chaccour et al., 2017). La pronta detección de una caída y la asistencia por parte de
personal de emergencia o familiares puede reducir el riesgo de mortalidad y aumentar
las posibilidades de sobrevivir al incidente (Solórzano, Rojas-Ortiz, López-Molina,
Clairand, & Pozo-Espín, 2018), (Santiago, Cotto, Jaimes, & Vergara-Laurens, 2017).
Existen varios métodos para la detección de caídas, entre los cuales se pueden mencionar:
los basados en sensores inerciales como acelerómetros y giróscopos, collares, pulseras
o botones que deben ser activados por el paciente y dispositivos que integran cámaras
para detección por medio de visión artificial, entre otros (Garripoli et al., 2015). Por
otra parte en (OMS, 2018) ( Harrou, Zerrouki, Sun, & Houacine, 2017), el estudio de
tecnologías no invasivas “no wearable”, ha tomado gran fuerza, debido a la poca o nula
influencia que estos presentan sobre el adulto mayor.
La detección de caídas y la tecnología asociada a sensores inerciales es prometedora, sin
embargo, aún existen retos y problemas relacionados a los procedimientos generados
para la detección de caídas en base al uso de la información proveniente de sensores y
la aplicación de algoritmos de clasificación, especialmente debido al poco conocimiento
del modelo de la dinámica que esto involucra. Algunos investigadores han intentado
definir la acción de la caída humana basándose en umbrales con la detección de picos
de la señal de los sensores inerciales (Xu, Zhou, & Zhu, 2018). Sin embargo, gracias a
la evolución de la inteligencia artificial (IA) y algoritmos de aprendizaje automático es
posible mejorar estos sistemas, permitiendo identificar Actividades de la Vida Diaria
(ADL) de manera más robusta. En el caso de caídas, se pueden disminuir las falsas
alarmas y realizar una pronta detección para reducir el tiempo de respuesta del personal
sanitario (Guerrero, 2016).
En (Xu et al., 2018) se realiza una comparativa entre los algoritmos y dispositivos
más utilizados para la detección de caídas, ésta información es recopilada de trabajos
de investigación y fueron divididos en tres principales categorías: basadas en visión
(Kinect, cámaras, etc.), uso de acelerómetro (incorporados en teléfonos, IMU, etc.) y
sensores de radio frecuencia (Wi-Fi y Radar). Antes del 2014 el uso del acelerómetro
representó el 55% en detección de caídas, mientras que el uso de cámaras fue solo de
36%. Después del 2014 aparecen tecnologías como Kinect con 30% de aplicaciones para
detención de caídas, cámaras 5%, Wifi 15%, una fusión entre Kinect y acelerómetros 15%.
Los acelerómetros por sí solos representan un 35% de las aplicaciones, evidenciando su
importancia debido al bajo consumo de energía, fiabilidad, tamaño y portabilidad.
Debido a los resultados presentados en (Shahzad & Kim, 2018), (Xu et al., 2018) y
(Saleh, 2018), en este trabajo se plantea la implementación y análisis de desempeño de
los algoritmos clasificadores: Naive Bayes (NB), Máquinas de Soporte Vectorial (SVM)
y Redes Neuronales (ANN) aplicados en la tarea de identificación de caídas. El análisis
realizado en Python abarca la preparación de datos, extracción de sus características y
evaluación del rendimiento de los clasificadores. Las métricas de desempeño evaluadas
son: precisión, exactitud, sensibilidad (recall) y F1-score. Además, se realiza un análisis
del efecto de la reducción de características a ser utilizadas en los distintos algoritmos
con el fin de determinar el nivel de influencia que tienen y como afecta al desempeño en
el proceso de clasificación. Para tal objetivo, se utiliza la base de datos de aceleraciones
disponible del Institute of Communications and Navigations correspondiente a muestras
de 16 sujetos masculinos y femeninos de entre 23 y 50 años (Institute of Communications
and Navigation, 2018).
2. Literatura relacionada
En la actualidad han surgido varios proyectos de investigación, así como también
empresas dedicadas al cuidado y mejora de la calidad de vida de los adultos mayores.
Es así que, la compañía sense4care especializada en el diseño de dispositivos médicos,
ha creado el ANGEL4 (sense4care, 2018), un detector de caídas muy sensible basado
en un acelerómetro triaxial y un algoritmo especifico desarrollado y aprobado por el
Centro de Estudios Tecnológicos para la Dependencia y la Vida Autónoma (CETpD) de
la Universidad Politécnica de Catalunya. ANGEL4 es un pequeño sensor que se coloca
en la cintura mediante la sujeción con un cinturón y se conecta al móvil mediante
bluetooth. Al momento que se registra una caída, el sistema realiza una llamada de
emergencia y envía varios SMS indicando la situación y ubicación GPS de la persona.
La compañía Vigilio Telemedical dispone de VIGI FALL (Vigilio Telemedical, 2018), un
parche que el adulto mayor puede colocarse en el pecho, el sistema incorpora sensores
de detección de movimiento que trabajan con el parche para evitar errores de caídas
falsas, está complementado con un programa experto que tiene conexión vía telefónica
para alertar en caso de una caída.
En (De Falco, De Pietro, & Sannino, 2019) se realiza una comparativa con 22
clasificadores entre ellos (SVM, Naive Bayes, Dynamic Time Warping (DTM), Modelos
de Markov (HMMS)) donde se trabaja con 17 clases de Actividades de la Vida Diaria
(ADLs) y la base de datos (UniMiB SHAR) de 30 personas, siendo el mecanismo para la
recolección de datos un móvil Samsung Galaxy Nexus equipado con un sensor triaxial.
En (Saleh, 2018) se ha planteado trabajar con los registros de aceleración triaxial (x, y,
z) para un tipo de caída o ADL; de estas aceleraciones se calcula el módulo o magnitud.
Al utilizar la información proveniente solamente de uno de los ejes o con umbrales,
estos datos no resultan fiables, ya que conducen a una sensibilidad y especificidad
baja; como resultado el rendimiento de los algoritmos basados en umbrales es débil.
Este proyecto propuso la clasificación de caídas basada en tres métodos de aprendizaje
supervisado KNN (K-nearest neighbors), ANN (Artificial Neural Network) y SVM
(Support Vector Machine) y para evaluar su rendimiento se usaron tres criterios
precisión, sensibilidad y especificidad, esta investigación ha reportado una precisión en
la detección de caídas superior al 99%. En (Rosero-Montalvo et al., 2017) se plantea la
implementación de un sistema embebido portable con el uso de señales de aceleración
junto con la técnica de KNN, el cual tiene una exactitud del 95% y un reconocimiento
de caídas positivas de un 92%.
Existen contribuciones en el tema de detección de caídas, como CMDFALL (Tran, Le,
Pham, & Hoang, 2018), cuyos datos fueron obtenidos capturando las actividades de 50
personas que realizaron 20 actividades cada una, incluyendo 8 caídas de diferentes estilos
y 12 actividades diarias. En este proyecto se utilizó el sensor Kinect y acelerómetros. Los
algoritmos utilizados para la detección fueron C3C (3D Convolutional Neural Network
form RGB), DMM-KDES (Deph MotionMap and Kernel Descriptor for Depth modality),
entre otros. FallDroid (Shahzad & Kim, 2018), está diseñado como un sistema autónomo
e independiente del usuario para la detección de caídas cuya propuesta está basada en
la unión de algoritmos de clasificación MKL-SVM (multiple kernel learning and support
vector machine). Además, los algoritmos de SVM, ANN, k-NN, Naive Bayes de igual
forma fueron evaluados con tres criterios precisión, sensibilidad y especificidad.
En (Pierleoni et al., 2016) se desarrolló un dispositivo no invasivo basado en sensores
inerciales que propone el uso de SVM para la detección de caídas. Las métricas para la
evaluación del rendimiento del algoritmo fueron precisión, sensibilidad y especificidad
y su diferencia con las anteriores investigaciones es que ésta propuesta constituyó el
desarrollo del producto de forma embebida. Por otra parte, una extracción adecuada
de las características más representativas del sistema a modelar permitirá un mejor
desempeño del algoritmo clasificador. Entre las características más utilizadas se pueden
mencionar: Valor medio absoluto (MAV), Cuadrado medio raíz (RMS), Número de
cruce por cero (NZC), Desviación (VAR), Desviación Estándar (STD), Potencia Entropía
3. Metodología
En el esquema general (Figura 1) se aprecian dos etapas para la detección de caídas:
entrenamiento y evaluación. En cada una de estas, se realiza un proceso de adquisición
de datos, procesamiento y extracción de características previo a su aplicación en los
clasificadores de NB, SVM y ANN.
3.1. Adquisición y procesamiento de datos.
Los datos de aceleración en coordenadas x,y,z son obtenidos de la base de datos “ARS_
DLR_DataSet del Institute of Communications and Navigation DLR”. Con el fin de que
los datos de aceleración utilizados sean independientes de la orientación del sensor,
en este trabajo se utiliza la magnitud de los valores de las aceleraciones mediante la
ecuación (1). Esta técnica es usada comúnmente en la detección de caídas en base al uso
de acelerómetros (Saleh, 2018).
(1)
Una vez que una actividad puede ser representada como una serie discreta en función de
las magnitudes del vector aceleración, se procede a realizar la transformada Discreta de
Fourier (DFT). El análisis frecuencial permite establecer las frecuencias que mayor peso
tienen en la señal discreta como se muestra en la Figura 3.
En la Figura 3 se puede observar que el rango de frecuencias que identifican una caída
se encuentra principalmente entre los 0.5Hz hasta los 25Hz, en base a lo cual se plantea
la aplicación de un filtro pasa banda. El rango inferior del filtro tiene por objeto eliminar
la componente de DC de la magnitud de la aceleración, que en este caso corresponde a
la componente gravitacional. Por otra parte, el rango superior del filtro está asociado
directamente a la eliminación de ruido en la señal.
Finalmente, se ha empleado un filtro digital butterworth de orden 5 en Python con
frecuencia de corte inferior: 0.5 Hz, frecuencia de corte superior: 25 Hz y se considera
que la señal tiene un tiempo de muestreo de 10ms o una frecuencia de 100 Hz. El
resultado de la señal filtrada se presenta en la Figura 4.
Una vez obtenidos los datos filtrados, se ha considerado que éstos corresponden a
diferentes personas con características físicas distintas, lo que puede ocasionar que
las amplitudes en las caídas de distintos usuarios reflejen valores máximos o mínimos
variables. Con el fin de que los datos de las distintas caídas sean uniformes en cuanto
a valores máximos, se realiza un proceso de normalización en el rango de [-1;1] de los
datos de la magnitud (ver Figura 5).
Figura 4 – Señal de un evento caída con filtro pasa banda 0.5Hz -25Hz.
Training Set
Training folds
Test fold
1 st iteration M1
2 nd iteration M2
...
i th iteration Mi
...
k th iteration Mk
Para NB se utiliza una distribución gaussiana, en SVM se utiliza diferentes Kernel (lineal,
polinomial y radial), mientras que en ANN se utiliza una función de activación RELU
con 3 capas en total: 2 capas de 5 nodos y la final de 15 nodos.
4. Pruebas y resultados
Una vez que se procesan los datos y se realiza la extracción de los 9 descriptores
(características), se genera la Matriz de Pearson de la Figura 7. Mediante un análisis
heurístico en base a las correlaciones entre características observadas se establece la
eliminación de 4 de ellas, con lo cual se reduce el espacio de características y se genera
la matriz de Pearson de la Figuran 8.
Finalmente, se realiza una evaluación del comportamiento de los clasificadores frente
a los dos grupos de características propuestos en función de la precisión, exactitud
(accuracy), sensibilidad (recall) y f1-Score.
5. Conclusiones
El procesamiento de información a partir del Data Set de ADL ha permitido obtener
la información necesaria (características) para el entrenamiento de algoritmos de
aprendizaje supervisado multiclase. Además, en base a la información recopilada y
procesada se establece un procedimiento para el análisis del desempeño de 3 clasificadores:
Naive Bayes, Maquinas de Soporte Vectorial y Redes de Neuronas Artificiales en base a
métricas establecidas como: precisión, exactitud, sensibilidad, y F1 Score.
El análisis realizado muestra como principales resultados que SVM con Kernel
Polinomial fue el que peor resultados obtuvo, sin embargo, los Kernel tipo radial y
lineal ofrecen buenas prestaciones en cuanto a precisión en el grupo de prueba con 9
características. ANN presentó buenos resultados en todas las métricas realizadas y sobre
todo un desempeño bastante favorable con la reducción del espacio de características.
La selección de características mediante el análisis de la matriz de Pearson aportó
información significativa sobre el comportamiento de los clasificadores ante una
reducción en el espacio de características. Se pudo apreciar que el clasificador con base
estadística NB presentó resultados bastante significativos en comparación con el resto
de los clasificadores, los cuales tuvieron una disminución de desempeño en todas las
métricas realizadas.
En este contexto, la disminución de características utilizadas, así como una elección
adecuada de clasificadores, representa una oportunidad para su futura implementación
en sistemas embebidos, donde reducir la carga computacional es un factor primordial.
Además, para futuros trabajos se podría utilizar técnicas como Análisis de componentes
principales PCA para reducir la dimensionalidad del espacio de características sin afectar
considerablemente el desempeño del sistema.
Referencias
Chaccour, K., Member, G. S., Darazi, R., Member, S., Hajjam, A., Hassani, E., & Andrès,
E. (2017). From Fall Detection to Fall Prevention : A Generic Classification of Fall-
Related Systems, 17(3), 812–822.
De Falco, I., De Pietro, G., & Sannino, G. (2019). Evaluation of artificial intelligence
techniques for the classification of different activities of daily living and falls. Neural
Computing and Applications, 1. [Link]
Garripoli, C., Mercuri, M., Member, S., Karsmakers, P., Jack, P., Member, S., … Schreurs,
D. (2015). Embedded DSP-Based Telehealth Radar System for Remote In-Door Fall
Detection, 19(1), 92–101.
Guerrero, M. F. T. (2016). Desarrollo de una Herramienta para Detección de
Movimientos de la Vida Cotidiana de Personas Mayores.
Harrou, F., Zerrouki, N., Sun, Y., & Houacine, A. (2017). Vision-Based Fall Detection
System for Improving Safety of Elderly People, (December), 49–55.
Institute of Communications and Navigation. (2018). Data Set. Retrieved from https://
[Link]/kn/en/[Link]/tabid-12705/22182_read-50785/
Morales, L., & Pozo, D. (2018). An experimental comparative analysis among different
classifiers applied to identify hand movements based on sEMG. 2017 IEEE 2nd
Ecuador Technical Chapters Meeting, ETCM 2017, 2017–Janua, 1–6. [Link]
org/10.1109/ETCM.2017.8247504
OMS. (2018). Caídas. Retrieved February 9, 2019, from [Link]
room/fact-sheets/detail/falls
Pierleoni, P., Belli, A., Maurizi, L., Palma, L., Pernini, L., Paniccia, M., & Valenti, S.
(2016). A Wearable Fall Detector for Elderly People Based on AHRS and Barometric
Sensor, 16(17), 6733–6744.
Rosero-Montalvo, P. D., Peluffo-Ordóñez, D. H., Godoy, P., Ponce, K., Rosero, E. A.,
Vásquez, C. A., … Mera, Z. A. (2017). Elderly fall detection using data classification
on a portable embedded system. In 2017 IEEE Second Ecuador Technical Chapters
Meeting (ETCM) (pp. 1–4). [Link]
Saleh, M. (2018). An Efficient Machine Learning-Based Fall Detection Algorithm
using Local Binary Features. 2018 26th European Signal Processing Conference
(EUSIPCO), 672–676.
Santiago, J., Cotto, E., Jaimes, L. G., & Vergara-Laurens, I. (2017). Fall detection system
for the elderly. In 2017 IEEE 7th Annual Computing and Communication Workshop
and Conference (CCWC) (pp. 1–4). [Link]
sense4care. (2018). Detección de Caídas. Retrieved from [Link]
es/
Shahzad, A., & Kim, K. (2018). FallDroid: An Automated Smart Phone based Fall
Detection System using Multiple Kernel Learning. IEEE Transactions on Industrial
Informatics, XX(XX), 1–11. [Link]
Solórzano, S., Rojas-Ortiz, M., López-Molina, R., Clairand, J., & Pozo-Espín, D. (2018).
Home Tele-assistance System for Elderly or Disabled People in Rural Areas. In
2018 International Conference on eDemocracy & eGovernment (ICEDEG) (pp.
380–385). [Link]
Tran, T., Le, T., Pham, D., & Hoang, V. (2018). A multi-modal multi-view dataset
for human fall analysis and preliminary investigation on modality. 2018 24th
International Conference on Pattern Recognition (ICPR), 1947–1952.
1
Facultad de Ingeniería, Universidad Mariana, 520001, Nariño, Colombia.
2
Facultad de Ingeniería, Universidad de Caldas, 170001, Caldas, Colombia
3
Ingeniería Mecatrónica, Corporación Universitaria Comfacauca,190001, Cauca, Colombia
4
Escuela de Ciencias Matemáticas y Computacionales Yachay Tech, 100650, San Miguel de Urcuquí, Ecuador
5
Ingeniería Informática, Corporación Universitaria Autónoma de Nariño, 520001, Nariño, Colombia.
Pages: 282–294
1. Introduction
The spermogram is the most important and simple diagnostic test to start the study
of male fertility in which physical aspects of semen are evaluated, such as volume,
pH, viscosity, color and other aspects that require more specialized techniques such
as concentration, motility and morphology (Avendaño, Mata, Sanchez Sarmiento, &
Doncel, 2012; Blomberg Jensen et al., 2011). The development of methods that allow
to determine the degree of fertility in man, is one of the fields that has been widely
studied worldwide, even though the manual procedure is still one of the most used,
it is carried out by experts in specialized clinical laboratories (Asociación Espanola
de Urología. & SPARC (Organization), 2010; Wang, Fan, Behr, & Quake, 2012). This
is where computer-aided systems (CASA) must respond to market needs in terms of
accessibility and price (Mortimer, van der Horst, & Mortimer, 2015; Sharma, Harlev,
Agarwal, & Esteves, 2016). These systems arose due to the need to perform a quantitative
evaluation of the characteristics of the sperm samples based on the criteria established
by the WHO (World Health Organization), which establishes the minimum amount of
sperm and visual fields to be evaluated (Kobori, Pfanner, Prins, & Niederberger, 2016;
Verón et al., 2018). This research work aims to develop an alternative method of human
sperm analysis using image processing techniques and predictive algorithms based on
probability filters, and thus overcome some limitations of current methods in relation to
the monitoring of multiple sperm (Arasteh, Vosoughi Vahdat, & Salman Yazdi, 2018).
This article describes the design, implementation and experimental validation of an
artificial vision system for the kinematic determination and monitoring of multiple
individual sperm using a Kalman predictor. Given the difficulties of label association
when there are multiple candidates, the technique used is based in JPDAF (The joint
probabilistic data-association filter), a probabilistic filter that makes it possible to
optimally obtain the most likely candidate given a combination of potential candidates
(Urbano, Masson, VerMilyea, & Kam, 2017). The contributions of this work are:
•• Adjustment specifications on tracking algorithm in order to improve robustness
and reduce processing time.
•• Implementation of the Kalman Filter and JPDAF for label association and error
reduction in trajectory prediction.
•• Performance of algorithms for tracking and calculation of parameters in real
time through efficiency study.
B Circular movements 5 µm /s - 20 µm /s
without affecting the edges of the image, non-linear filters are used, which represents an
alternative. In this case, the filter used is called Kuwahara, which consists of the use of
a window divided into 4 sectors to which the value of mean and variance is calculated.
Finally, the measure of least variance is used as the representative value of that window
(Sarabia & Munuce, 2011).
Segmentation of the images: Once the improvement of the characteristics has been
made, the segmentation process is carried out, which consists of separating the sperm
from the bottom. Given the changes of illumination in the images, it is decided to use
the Mixtures of Gaussians method, a process that consists in accessing the intensity level
values of each pixel in each channel (Giaretta et al., 2017; Ravanfar et al., 2014). Given
a value of random X, it is possible to determine the probability that a pixel belongs to
the object of interest (different from the background) and is it given by the following
distribution:
(1)
where from the equation (1) it is established that k is the number of regions to use, and Pi
> 0 and where the sum of all the probabilities will be determined by .
(2)
(3)
(4)
(5)
(6)
The index tj denotes the objective t that associates a measure j. For the realization of
the speed measurement validation, the noise measure of the covariance given by the
equations (7) and (8) is used:
(7)
(8)
where C1, C2 and C3 are the memory decay coefficients. Finally, a comparison was
made between the manual measurement and the algorithm implemented in order to
find from the confusion matrix the accuracy of the counting classifier. The statistical
analysis was carried out using software Gnu PSPP 0.10.12. Normality tests were
applied applying Ryan-Joiner’s statistical test for the analysis variables. The following
calculations were made:
•• Mean and standard deviation for the parameters VCL, VSL, VAP, LIN, STR y
WOB.
•• Dispersion charts (VSL vs VCL), (LIN vs ALH), (VSL vs WOB) y (MAD vs LIN).
•• Confusion analysis for comparison between classification data calculated by the
mobility algorithm (A, B, C and D) regarding those classified by expert.
To establish the differences of the trajectory points obtained by algorithm tracking and
association of labels (Kalman and JPDAF) regarding those extracted by expert using
a manual tool, a Wilcoxon statistical test was used for related samples and a value of
p<0.05 was considered as a value of statistical significance.
The results show a small improvement to solve individual sperm crosses. In some cases
where the trajectories present a very large variability, the JPDAF algorithm does not
solve the crosses. Table 2 shows the percentage of reliability for each of the methods
used for the identification of intersections.
and WOB were calculated and correlated in scatter plots, these are indicated in Fig. 3
and Figure 4 for two samples A and B respectively.
The mobility parameters for sample A, such as VCL, VSL, LIN, ALH y WOB and
were calculated and plotted. The expert using the Makler counter obtained average
concentration values of 30.6x10-6 sperm / ml. A total of 200 sperm were counted in two
samples (A and B) and identification and monitoring software was used. Table 3 shows
the average values and the standard deviation of the speed of sample A. While the data
measured for sample B is 20.6x10-6 sperm / ml, the average values and the standard
deviation of velocity can be seen in Table 4.
The data obtained for sample A are larger than for sample B, after the sperm identification
process, the follow-up algorithm based on minimum distance criteria is applied.
Type Number of Average Speed Standard Deviation
Spermatozoa (µm / s) Speed (µm / s)
A 41 38 11
B 23 8 4
C 38 5 3
D 88 0 0
Total 190
It was applied for a sequence of 10 seconds and the extraction of the kinematic parameters
was performed, resulting in a curve that describes the trajectory of the sperm around a
line that determines the degree of deviation. This behavior can be observed in figure 5.
Figure 5 – Identification and tracking of individual sperm for an image of the sample.
Once the kinematic parameters are obtained, this information is correlated with the data
obtained in the manual assessment by the expert in the confusion matrix in Table 5 and
Table 6, for samples A and B respectively.
The data obtained allow finding reliability percentages above the values referenced
by the WHO, and it is also possible to observe from the confusion matrix that errors
are established for underlying categories. Category A is confused with B for some
classifications and this may be due to a hysteresis problem since most of the errors
are those that are at a speed that oscillates around the defined threshold within the
uncertainty of the measurement value. Regarding the comparison of the manual method
with respect to that achieved with the tracking algorithm using the Wicolson coefficient,
it was possible to find a correlation of (p <0.05, ES = 92), values that allowed to
establish the degree of reliability in the tag assignment and demonstrate the reliability in
determining trajectories when there are bifurcations, given the overlap of spermatozoa
in the seminal fluid.
4. Conclusions
The system allowed tracking up to 200 individual sperms in real time by means of the
JPDAF algorithm, and measuring the average speed, displacement, distance traveled
and frequency with a resolution level of 10 microns. The preliminary results of the
system allowed the identification and classification of the categories defined by the WHO
based on an expert system, obtaining an accuracy in the results for the identification of
sperm of 95.5%, and 95.7% for the dead sperm count (data that can be deduced from
D motility category). Finally, for motility, the percentage of reliability was established
above 90.9% for categories A and B. It was possible to demonstrate the efficiency for at
least 200 individual trajectories, by non-parametric Wicolxon correlation coefficient in
a value greater than 86%. At least for the 12 trajectories of a total of 16 that presented
the crossing of two and three spermatozoids, separation was achieved in an adequate
manner. It was possible to find correlations between the trajectory descriptive data
allowing to understand the behavior of the variables when the fertility index is higher, a
criterion that allows to give clues about the behavior of the sperm given the conditions
of normality. The software showed a good performance in relation to the data obtained
by the expert. However, for a more efficient validation it is necessary to take a larger
number of samples for study in specialized centers. The main objective, which is the
implementation of a low-cost and user-friendly support tool is achieved.
Acknowledgements
This research work is supported by the Mechatronic Engineering research Group of the
Mariana University. Also, the authors are very grateful for the valuable support given by
SDAS Research Group ([Link]).
References
Amann, R. P., & Waberski, D. (2014). Computer-assisted sperm analysis (CASA):
Capabilities and potential developments. Theriogenology, 81(1), 5-17.e3. https://
[Link]/10.1016/[Link].2013.09.004
Arasteh, A., Vosoughi Vahdat, B., & Salman Yazdi, R. (2018). Multi-Target Tracking
of Human Spermatozoa in Phase-Contrast Microscopy Image Sequences using a
Hybrid Dynamic Bayesian Network. Scientific Reports, 8(1), 5068. [Link]
org/10.1038/s41598-018-23435-x
Asociación Espanola de Urología., W., & SPARC (Organization). (2010).̃Actas
Urológicas Españolas (Vol. 34). Retrieved from: [Link]
php?script=sci_arttext&pid=S0210-48062010000700001
Avendaño, C., Mata, A., Sanchez Sarmiento, C. A., & Doncel, G. F. (2012). Use of laptop
computers connected to internet through Wi-Fi decreases human sperm motility
and increases sperm DNA fragmentation. Fertility and Sterility, 97(1), 39-45.e2.
[Link]
Beresford-Smith, B., & Van Helden, D. F. (1994). Applications of radar tracking algorithms
to motion analysis in biomedical images. In Proceedings of 1st International
Conference on Image Processing (Vol. 1, pp. 411–415). IEEE Comput. Soc. Press.
[Link]
Blomberg Jensen, M., Bjerrum, P. J., Jessen, T. E., Nielsen, J. E., Joensen, U. N., Olesen,
I. A., Jorgensen, N. (2011). Vitamin D is positively associated with sperm motility
and increases intracellular calcium in human spermatozoa. Human Reproduction,
26(6), 1307–1317.
Bungum, M., Bungum, L., & Giwercman, A. (2011). Sperm chromatin structure assay
(SCSA): a tool in diagnosis and treatment of infertility. Asian Journal of Andrology,
13(1), 69–75. [Link]
Sarabia, L., & Munuce, M. J. (2011). Nuevos valores para el espermiograma OMS
2010. Revista Médica de Chile, 139(4), 548–549. [Link]
98872011000400020
Shaker, F., Monadjemi, S. A., & Naghsh-Nilchi, A. R. (2016). Automatic detection and
segmentation of sperm head, acrosome and nucleus in microscopic images of
human semen smears. Computer Methods and Programs in Biomedicine, 132, 11–
20. [Link]
Sharma, R., Harlev, A., Agarwal, A., & Esteves, S. C. (2016). Cigarette Smoking and
Semen Quality: A New Meta-analysis Examining the Effect of the 2010 World
Health Organization Laboratory Methods for the Examination of Human Semen.
European Urology, 70(4), 635–645. [Link]
Sikka, S. C., & Hellstrom, W. J. (2016). Current updates on laboratory techniques for
the diagnosis of male reproductive failure. Asian Journal of Andrology, 18(3), 392.
[Link]
Urbano, L. F. (2014). Robust Automatic Multi-Sperm Tracking in Time-Lapse Images.
Drexel University, (May).
Urbano, L. F., Masson, P., VerMilyea, M., & Kam, M. (2017). Automatic Tracking and
Motility Analysis of Human Sperm in Time-Lapse Images. IEEE Transactions on
Medical Imaging, 36(3), 792–801. [Link]
Verón, G. L., Tissera, A. D., Bello, R., Beltramone, F., Estofan, G., Molina, R. I., &
Vazquez-Levin, M. H. (2018). Impact of age, clinical conditions, and lifestyle on
routine semen parameters and sperm kinematics. Fertility and Sterility, 110(1), 68-
75.e4. [Link]
Wang, J., Fan, H. C., Behr, B., & Quake, S. R. (2012). Genome-wide Single-Cell Analysis
of Recombination Activity and De Novo Mutation Rates in Human Sperm. Cell,
150(2), 402–412. [Link]
1
Universidad Central del Ecuador, Quito, Ecuador.
2
universidad de Alicante, Alicante, España.
Pages: 295–308
1. Introducción
Durante los últimos años, la cantidad y variedad de datos abiertos publicados por las
administraciones públicas en todo el mundo ha sido creciente. Esta tendencia responde
2. Metodología de Investigación
La metodología de investigación llevada a cabo se basa en el proceso “investigación en
acción” (Baskerville, 2018) y en la estructuración de conocimiento. Se utilizó un caso
de estudio, para diagnosticar la problemática de los datos publicados, planteándose
una hipótesis de trabajo en concordancia con la aplicación del marco de referencia y
realizando varias iteraciones (según la metodología de investigación en acción descrita
en la Figura 1) para mejorarlo. Se concluye con la presentación de los resultados. Las
actividades que se llevan a cabo son las siguientes:
Cada una de las actividades se convirtió en iteraciones que fueron evaluadas. Se realizó
un total de tres iteraciones hasta lograr llegar a un porcentaje de calidad de datos
aceptado por el grupo interviniente en el proceso.
3. Trabajos relacionados
Publicar datos en abierto presenta algunas barreras, una es la falta de calidad de los
datos publicados, específicamente con problemas en la completitud, especificación
de metadatos (descripción correcta del registro de datos), datos obsoletos, exactitud
e interoperabilidad entre otros (Janssen, Charalabidis, & Zuiderwijk, 2012). Además,
otros problemas relacionados con la apertura de datos se describen a continuación:
•• Poca o ninguna estandarización de columnas o atributos, ni de unidades de
medida, entre otros (Attard, Orlandi, Scerri, & Auer, 2015) .
•• Conjuntos de datos incompletos, datos faltantes, falta de atributos relevantes o
datos incorrectos (Sadiq & Indulska, 2017).
•• Poca variedad de datos publicados (Luna-Reyes, Bertot, & Mellouli, 2014).
•• Falta de especificación del propósito de los datos, así como de las fuentes de
datos y del responsable de los datos (Reis, Viterbo, & Bernardini, 2018).
En (Kubler, Robert, Le Traon, Umbrich, & Neumaier, 2016), se realiza un estudio de
44 portales de diferentes países, concluyéndose que el movimiento de apertura de datos
propone oportunidades amplias que merecen ser exploradas. Sin embargo, existe un
problema de calidad en los datos abiertos, que tiene un impacto en las iniciativas de
gobierno abierto. Además, en este estudio, se considera que la falta de información
completa sobre los datos publicados afecta directamente a su reutilización, ya que
disminuye su impacto y afecta la sostenibilidad de un proyecto de datos abiertos.
Uno de los elementos que afecta la calidad es la diversidad de las fuentes de datos
en los sistemas de origen (Heinrich, Klier, Schiller, & Wagner, 2018), por cuanto la
Responsable del portal.- Será el encargado de explotar el valor crítico que los datos
pueden proporcionar (Lee, 2014) y la relación con los potenciales reutilizadores, para
establecer acciones de mejora. El responsable del portal deberá tener conocimientos de
datos abiertos y con capacidades de negociación con los potenciales reutilizadores. Entre
las principales actividades están identificar el grupo de reutilizadores e infomediarios,
organizar las acciones para el levantamiento de los requisitos, definir el responsable del
dato, diseñar un plan de apertura de datos, definir los formatos de publicación y diseñar
planes de mejora de la calidad del dato publicado.
Responsable de la generación del dato. -Es el responsable del proceso que tiene en
cuenta la definición de requisitos de datos, desde el momento en que se genera el dato
internamente en la organización hasta que se publica. Debe tener conocimientos técnicos
de bases de datos. Las actividades sugeridas son: recibir el levantamiento de requisitos
por parte del responsable del portal, definir el origen del dato y el estado del dato en la
organización (automatizado, manual), definir políticas, establecer la codificación de los
datos, así como consideraciones de anonimización y normativa de privacidad interna.
Definir el archivo maestro de apertura.-Dentro de una organización, los datos
maestros permiten relacionar todos los datos que tiene valor crítico en un solo archivo
(Smith & McKeen, 2018), a este concepto se propone añadir criterios de apertura de
acuerdo a las siguientes actividades:
•• Indagación: identificar las aplicaciones y sistemas de origen, para los conjuntos
de datos requeridos por los potenciales reutilizadores y definidos por la
organización. En esta etapa se considerará las bases de datos y fuentes de datos
externas (Vetrò et al., 2016). Esta actividad permite crear un archivo único que
deberá contener la identificación del origen de los datos dentro de la organización,
evaluar la calidad de los datos en origen, identificar la información susceptible
de publicación considerando normativas de protección de datos e identificar la
existencia o no de metadatos y diccionarios de datos de origen.
•• Anonimización: definir la técnica de anonimización para el conjunto de datos
creado (Smith & McKeen, 2018). Para este proceso es necesario contrastar los
datos susceptibles de publicación con las normativas de protección de datos
vigente, para definir dentro de la institución la técnica de anonimización
correspondiente.
•• Licencia: se puede identificar varios tipos de licencia, como por ejemplo, con
reconocimiento que permite la explotación de los datos incluyendo una finalidad
comercial; con reconocimiento pero sin uso comercial de los datos, es decir
no se puede publicar con finalidades comerciales, es decir, no se permite un
uso comercial de los conjunto de datos de las posibles actividades comerciales
(Attard et al., 2015).
•• Formato de publicación: establecer los formatos de publicación considerando
requisitos como disponibilidad como datos estructurados legibles por máquina;
disponibilidad en formato no propietario; estándares abiertos de W3C (RDF y
SPARQL) o URI (Ferrer-Sapena, Peset, & Aleixandre-Benavent, 2011).
Estructurar el archivo de metadatos y diccionario de datos. - La definición
de metadatos significa, crear un archivo que contenga la información de los conjuntos
Esta actividad permitirá tener una descripción de los datos que están preparándose para
ser abiertos. Se propone la estructura de datos descrita en la Tabla 4.
Nombre Descripción
Identificador Código único
Los campos marcados con (*) representan los que corresponden para apertura de datos,
además es importante notar que el Diagrama de Flujo de Datos será el que se utiliza en
la organización para la generación del datos y asociado a sus procesos internos.
Preparación del dato y publicación. -Previo a la publicación de datos, es necesario
validar si los requisitos de los potenciales reutilizadores o infomediarios han sido
cumplidos. Una vez que el dato maestro de apertura está listo se aplicará, nuevamente
los indicadores propuestos en la Tabla 1. Si no se cumple el nivel de calidad requerido,
se publica en el metadato la información correspondiente o se regresa al proceso de
estructuración del dato en el archivo maestro de apertura. La publicación es la etapa
final del marco de referencia donde el conjunto de datos se estructura en formatos
abiertos (Bizer, Heath, & Berners-Lee, 2009). El formato de apertura fue seleccionado
en la etapa donde se define el archivo maestro de apertura.
5. Resultados
Luego de la aplicación del marco de referencia con cada una de las etapas en la primera
iteración se obtuvieron los siguientes resultados:
•• El 30% de los campos incluidos en el conjunto de datos se encontraban en
formatos manuales.
•• Las codificaciones de la relación contractual y dedicación no estaban
estandarizadas.
Con estos elementos se trabajó en el plan de publicación y mejora de los datos
conjuntamente y se agregó la identificación del responsable de la generación del dato.
Se define que el dato se genera en el Sistema de Recursos Humanos y que se alimenta
con los datos del Sistema de Carga Horaria. Para esto se agrega al marco de trabajo la
identificación de los responsables del dato y la necesidad de la estandarización de los
catálogos dentro de la institución. Se agrega al marco de trabajo la necesidad de definir
el estado del dato previo a la apertura.
En la segunda iteración se analiza el porcentaje de completitud y exactitud resultado
del diagnóstico, definiéndose como meta llegar con un nivel de calidad mayor al 95% en
todos los campos, por cuanto existen datos en los sistemas de origen inconsistentes como
las nominaciones de los cargos. Además, los datos históricos tenían algunos elementos
no estandarizados. En el marco de trabajo se agrega las atribuciones del responsable
del portal de datos abiertos, por ejemplo, la relación con el administrador de la base de
datos y el responsable del dato.
Del resultado de la aplicación del marco de referencia, se generaron varias normativas
institucionales relativas a los datos de docentes, como estandarización de cargos y
nominaciones.
En la tercera iteración se establece la necesidad de agregar al marco de trabajo el
concepto de archivo maestro de apertura que contiene el origen del dato, su estado y
una descripción de cada uno de los campos que constan en el conjunto de datos.
Se analizaron los registros duplicados detectando 41, que equivale a un 2%, que
corresponden a docentes que dictan clases en varias carreras o varias facultades. En este
aspecto, también se agregó una política institucional tal que el docente pertenece a la
facultad y carrera donde mayor carga horaria tiene.
6. Discusión
De los resultados obtenidos en la aplicación del marco de referencia para la apertura de
datos, se valida la implicación directa entre la calidad de datos en origen con la calidad
de datos publicados. Consecuentemente, para favorecer la sostenibilidad no deben
ser procesos aislados, y se genera un archivo maestro de apertura basado en algunos
resultados presentados en la investigación de (Heinrich et al., 2018).
La organización y definición de requisitos, permite mejorar la calidad de datos
publicados por cuanto, al identificar a los potenciales reutilizadores facilita los procesos
de levantamiento de requisitos de publicación, directamente con los consumidores de
la información y la evaluación de la calidad, esto fue propuesto en la investigación de
(Conradie & Choenni, 2014), mientras que en el presente trabajo se concluye que la
participación de los potenciales reutilizadores es fundamental, caso contrario se publica
lo que la institución defina.
El responsable del portal es el interlocutor de todo el proceso en el caso en estudio,
por tanto se logró establecer en la segunda iteración las acciones que debe cumplir del
responsable del dato, concluyendo en características similares con (CDO, Chief Data
Officer) y (Lee, 2014), adicionando conocimientos de anonimización de datos y formatos
de apertura.
Al realizar el archivo maestro de apertura, especialmente en la definición de los orígenes
de datos, se mejora la calidad de los datos para la publicación en abierto, ya que se pudo
establecer un solo origen del dato. También se impactó a los procesos internos de la
institución. Entre algunos ejemplos se puede citar: establecer claramente el catálogo
de dedicación y categoría del docente, el cual no existía desde la Dirección de Recursos
Humanos implantar una política institucional de uso del correo electrónico para el
acceso a este servicio. Es importante también notar que identificar el responsable del
dato permite mejorar los datos en origen y diseñar las acciones de mejora continua.
También se define al responsable de la creación del dato, con el propósito de
institucionalizar la mejora de los procesos que deben ser automatizados. Esto facilitó
visualizar nuevos requerimientos de sistemas de información y mejorar el diagrama de
flujo de datos interno para poder generar el diccionario de datos para el portal en abierto.
Finalmente, se prepara el dato para publicación y evaluación. La mejora significativa de
los datos se debió a que previo a la publicación se evaluó la calidad de los datos en las
dimensiones definidas, hasta lograr un nivel de calidad superior al 90%. Esto incrementó
el tiempo para la publicación, pero simultáneamente permitió la mejora de los datos
en origen acompañados de la calidad en completitud y exactitud, demostrando con no
pueden ser procesos aislados, ni con una temporalidad definida.
7. Conclusiones
En este trabajo se presenta un marco de referencia para la apertura de datos basado en
estándares y buenas prácticas, que permite considerar criterios de calidad. En concreto,
la aplicación del marco de referencia permite tener en cuenta la calidad de los datos en
origen para conseguir una mejora en la calidad de los datos abiertos, como un proceso
de mejorar continua.
Considerando que los datos publicados tienen su origen en aquellos que se gestionan
en la organización, se debe incluir consideraciones de apertura de datos en formatos
abiertos (y su calidad) desde el inicio de los procesos de automatización.
El marco de referencia presentado en este artículo, establece cada una de las actividades
para definir un proceso de análisis de requisitos relacionado con los datos abiertos,
además propone la creación del archivo de datos maestros de apertura (mediante la
adaptación del estándar ISO 8000), con su correspondiente metadatos y diccionario de
datos con las características necesarias para la publicación en abierto. Se presenta un
conjunto de responsabilidades y roles en un proceso de apertura.
Tal y como se ha detallado en la validación, utilizar el marco de referencia propuesto
ocasiona mayor inversión de tiempo en la preparación de los datos previo a la publicación,
sin embargo, permite la mejora de las estructuras internas que facilitarán procesos de
publicación posteriores con criterios de calidad.
Las limitaciones de la investigación se orientaron a un solo caso de estudio, sin embargo,
la propuesta diseñada responde a los requerimientos levantados de la literatura científica
publicada y estándares reconocidos como ISO, por tanto, podría ser aplicado a otras
instituciones y se realizó mediante iteraciones que mejoraron el mismo. Los elementos citados
generan un nuevo reto para el siguiente trabajo en incluir elementos de gobierno de datos.
Por tanto, para trabajos futuros se está implementando con este primer modelo una
estructura de gobierno de datos para sostener los trabajos de apertura, con validación
de expertos en cada una de las etapas propuestas.
Referencias
Attard, J., Orlandi, F., Scerri, S., & Auer, S. (2015). A systematic review of open
government data initiatives. Government Information Quarterly, 32(4), 399–418.
[Link]
Baskerville, R. L. (2018). Investigating Information Systems with Action Research.
Communications of the Association for Information Systems, 2(October). https://
[Link]/10.17705/1cais.00219
Benitez-Paez, F., Comber, A., Trilles, S., & Huerta, J. (2018). Creating a conceptual
framework to improve the re-usability of open geographic data in cities. Transactions
in GIS, 22(3), 806–822. [Link]
Benitez, F., Comber, A., & Huerta, J. (n.d.). IMPROVE THE REUSABILITY OF OPEN
How much data is generated every minute ?
Benson, P. (2008). ISO 8000 the International Standard for Data Quality. MIT
Information Quality Symposium, July 16-17(2008), 1–4.
Bizer, C., Heath, T., & Berners-Lee, T. (2009). Linked data-the story so far. International
Journal on Semantic Web and Information Systems, 5(3), 1–22. [Link]
org/10.4018/jswis.2009081901
Carretero, A. G., Gualo, F., Caballero, I., & Piattini, M. (2017). MAMD 2.0: Environment
for data quality processes implantation based on ISO 8000-6X and ISO/IEC 33000.
Computer Standards and Interfaces, 54(September 2016), 139–151. [Link]
org/10.1016/[Link].2016.11.008
Coleman, D. W., Hughes, A. A., & Perry, W. D. (2009). The role of data governance
to relieve information sharing impairments in the federal government. 2009 WRI
World Congress on Computer Science and Information Engineering, CSIE 2009, 4,
267–271. [Link]
Conradie, P., & Choenni, S. (2014). On the barriers for local government releasing open
data. Government Information Quarterly, 31(SUPPL.1), S10–S17. [Link]
org/10.1016/[Link].2014.01.003
Ferrer-Sapena, A., Peset, F., & Aleixandre-Benavent, R. (2011). Acceso a Los Datos
Públicos y Su Reutilización: Open Data y Open Government. El Profesional de La
Informacion, 20(3), 260–269. [Link]
Garriga-Portolà, M. (2011). ¿Datos Abiertos? Sí, Pero de Forma Sostenible. El Profesional
de La Informacion, 20(3), 298–303. [Link]
Heinrich, B., Klier, M., Schiller, A., & Wagner, G. (2018). Assessing data quality – A
probability-based metric for semantic consistency. Decision Support Systems,
110(October 2017), 95–106. [Link]
Sadiq, S., & Indulska, M. (2017). Open data: Quality over quantity. International
Journal of Information Management, 37(3), 150–154. [Link]
ijinfomgt.2017.01.003
Smith, H. A., & McKeen, J. D. (2018). Developments in Practice XXX: Master Data
Management: Salvation Or Snake Oil? Communications of the Association for
Information Systems, 23. [Link]
Vetrò, A., Canova, L., Torchiano, M., Minotas, C. O., Iemma, R., & Morando, F. (2016).
Open data quality measurement framework: Definition and application to Open
Government Data. Government Information Quarterly, 33(2), 325–337. https://
[Link]/10.1016/[Link].2016.02.001
1
Universidad Industrial de Santander, Carrera 27 Calle 9, 680002, Bucaramanga, Colombia.
2
Universidad del Cauca, Departamento de Sistemas, Calle 5 Nº 4-70, 190003, Popayán, Colombia
Pages: 309–322
1. Introducción
El incremento periódico de los datos que acumulan las Instituciones de Educación
Superior (IES) se ha convertido en una oportunidad para los sistemas que propician el
análisis de los datos. De esta forma, el manejo estratégico de los sistemas de información
(Pinto, Becerra, & Gómez, 2013) es clave para la identificación de conocimiento y aspectos
claves de los procesos de las IES. De acuerdo con Moreira & Rocha (2018), en el entorno
empresarial y académico, la era digital nos ha llevado a un aumento significativo de la
generación de datos, los cuales deben ser estructurados adecuadamente, analizados y
presentados con precisión para poder aprovechar los beneficios detrás de esta información
(Martins et al., 2019). Sin embargo, a pesar de contar con este gran volumen de datos,
a la fecha gran parte de estas instituciones colombianas no han logrado consolidarlos,
limitando su proyección, situación compartida por algunos países en el mundo.
Las bodegas de datos son repositorios diseñados para el almacenamiento, administración y
análisis de grandes cantidades de datos (Cabrera, Morán, & Ramírez, 2014) y han demostrado
ser una herramienta útil y valiosa en el proceso de planeación estratégica en diferentes
áreas, principalmente en ventas, finanzas, telecomunicaciones, salud y recientemente en
educación. Implantar una bodega de datos permite aportar información actualizada y veraz,
en diferentes niveles de agrupación, y con trazabilidad en la gestión de la calidad institucional
(Rosado, 2016). El proceso típico de diseño de una bodega de datos inicia con la recolección
de requerimientos, los cuales son la base para poder obtener un sistema analítico en línea
hecho a la medida de la institución interesada (Mendoza, Durán, & Rivera, 2010).
Un proceso innovador que proponga un modelo general de bodegas de datos aplicado
a todas las IES a nivel de una nación, requiere de uno o más indicadores transversales
a todas las IES del país. En Colombia existe un Modelo de Indicadores de Desempeño
del Ministerio de Educación (MIDE) que sirve como herramienta de evaluación de la
calidad de las IES del país, de acuerdo a un informe de sus resultados en ocho dominios
(Ministerio de Educación Nacional de Colombia, 2018).
Esta revisión sistemática busca establecer los conceptos fundamentales del estado de arte
relacionados con modelos de bodegas de datos para instituciones de educación superior
y con ello analizar la viabilidad de crear un modelo dimensional basado en el MIDE. El
método de revisión sistemática se basó en la guía definida por Kitchenham, Charters &
Budgen (2007). A continuación en la sección 2 se presenta la planeación de la revisión,
incluida la búsqueda de otras Revisiones Sistemáticas de la Literatura (RSL) relacionadas
con el tema, las preguntas de investigación, el desarrollo de la búsqueda, la evaluación de
la calidad de los estudios relevantes y las respuestas encontradas a las preguntas, luego
en la sección final se presentan las conclusiones del trabajo centradas en los dominios
fundamentales del uso de las bodegas de datos en las IES según la literatura.
El trabajo de Zulkefli et al. (2015) presenta una RSL para identificar el uso actual de
la inteligencia de negocios (Business Intelligence, BI) en IES y guiar con ello futuras
investigaciones. Además, menciona la necesidad de una bodega de datos en las IES para
centralizar, identificar y clasificar los datos para su posterior análisis. Sin embargo, no
presenta criterios de exclusión, ni evalúa la calidad y validez de los estudios utilizados,
como tampoco hace una descripción sustancial de estos. El marco de trabajo que aporta
Zulkefli et al. (2015) consta de ocho componentes: 1) la misión y visión, 2) el plan
estratégico, 3) los indicadores de rendimiento, 4) los procesos claves del negocio, 5) el
personal, 6) los procesos, 7) las tecnologías BI y 8) la infraestructura de la información.
En la RSL que realizan Winanti et al. (2018) buscaron determinar los factores que
influyen en la aplicación de sistemas de información ejecutivos en IES. Los autores
encontraron que un sistema de información exitoso en una IES controla los factores
tecnológicos, de datos y universitarios. Las bodegas de datos hacen parte del factor de
datos, el cual mostró un impacto significativo en las IES al ser mencionado en 37 de los
76 artículos candidatos de la RSL. Este informe a pesar de caracterizar los estudios no los
describe con el suficiente detalle ni evalúa la calidad de los mismos. El factor tecnológico
se subdivide en educación tecnológica, soporte técnico y experiencia en informática. El
segundo factor se relaciona con el manejo de datos y el vínculo de estos con los objetivos
de negocio. Finalmente, el factor universitario se ramifica en soporte universitario,
patrocinio de operaciones, y personal de servicio de información, entre otros.
La revisión realizada por Moscoso et al. (2018) busca explorar e identificar las áreas
prioritarias de investigación en bodegas de datos educativas. Los estudios encontrados en
este Mapeo Sistemático (MS) no se describen con el suficiente detalle, pero el documento
aporta información sobre algunos de los estudios primarios durante el proceso de
clasificación y análisis. Este MS encontró 34 estudios pertinentes, de los cuales 27 tenían una
implementación, 26 proponían un esquema, 19 analizaban datos, 11 evaluaban su eficacia,
8 tenían en cuenta requerimientos de negocio y 4 mencionaban requerimientos de usuario.
Esta revisión además de mostrar las etapas que se tienden a manejar en proyectos de bodegas
de datos en educación, también encontró que solo hay unos pocos estudios de calidad sobre
el tema, y confirma que hay grandes oportunidades para futuras investigaciones en el campo.
Debido a que los sistemas BI tienen altos riesgos, desarrollan procesos complejos y son
dependientes de una correcta implementación, Musa et al. (2019) propone ocho factores
de éxito en la implementación de estrategias de BI. Un sistema BI aplicado de forma
exitosa es importante según los autores, porque permite aumentar el desempeño de las
IES al facilitar la toma de decisiones basadas en datos. Esta RSL no explicita los criterios
de inclusión y exclusión utilizados, ni revisa la calidad y validez de los estudios incluidos.
Los factores de éxito encontrados por los autores se relacionan con: 1) el soporte de
alta dirección, 2) la visión, 3) la estructura organizacional, 4) el empoderamiento del
usuario, 5) el equipo de trabajo, 6) la participación del usuario, 7) la calidad del sistema,
8) la calidad de la información y 9) la calidad del servicio.
Este marco referencial de revisiones sistemáticas de modelos de bodegas de datos
aplicados a IES se hizo para evaluar cómo se están haciendo las revisiones actualmente
en esa área, identificar las fallas que están presentando y no repetirlas en la RSL que
se realizó. De las cuatro revisiones sistemáticas encontradas solo Moscoso et al. (2018)
abordan específicamente el tema de bodegas de datos en IES, las revisiones restantes se
enfocan en la inteligencia de negocios y mencionan el tema de forma indirecta. Los autores
muestran que todavía hay una sensible ausencia de su implementación en entornos reales,
empezando por diversos problemas en el proceso ETL (Extraction, Transform and Load).
Cadena de búsqueda
(universities OR higher education OR college OR academic OR institutions) AND (data warehouse OR data
warehousing OR business Intelligence) AND (dimensional model OR dimensional modeling OR design)
Figura 1 – Dominios de evaluación del MIDE (Ministerio de Educación Nacional de Colombia, 2018)
Proceso de búsqueda
Las búsquedas electrónicas se basaron en las bases de datos Scopus, ISI Web of
Knowledge, IEEEXplore, Directory Open Access Journal (DOAJ), Science Direct y
Springer-Link. Siguiendo el proceso propuesto por Kitchenham, Mendes, et al. (2007),
la búsqueda se organiza en dos fases; en la fase inicial se identifican estudios candidatos
derivados de las palabras claves de la cadena de búsqueda y en una segunda fase se
aplica la técnica “bola de nieve”, esta consiste en revisar las referencias de cada estudio
primario buscando identificar más estudios candidatos.
Criterios de inclusión y exclusión
Los criterios para incluir un estudio primario fueron los siguientes:
•• El estudio es relevante para el desarrollo de bodegas de datos para IES.
•• El estudio es aplicado a dominios de evaluación de calidad de las IES.
Los criterios para excluir un estudio primario fueron los siguientes:
•• El estudio no debe haber sido publicado antes del 2014.
Evaluación de calidad de los estudios primarios
Adicional a la selección por criterios de inclusión y exclusión fue necesario evaluar la
calidad de los estudios relevantes. Este paso permite según Kitchenham, Charters, et
al. (2007) investigar si las diferencias de calidad de los estudios explican las diferencias
en sus resultados, ponderar la importancia de cada estudio, determinar la fuerza de las
inferencias e incluso guiar recomendaciones para futuras investigaciones.
La calidad de los estudios primarios de la presente revisión del estado del arte se evaluó
con la lista de verificación de estudios cualitativos provista por Kitchenham, Charters,
et al. (2007).
4. Conclusiones
El estado del arte en bodegas de datos para instituciones de educación superior muestra
que los trabajos realizados desde el 2014 no se fundamentan de una forma significativa
en cada uno de los dominios de evaluación de calidad que tiene en cuenta el MIDE.
Sin embargo, sí existe una relación entre algunos dominios con modelos de bodegas de
datos propuestos, lo cual brinda una oportunidad de investigación en el modelado de
una bodega de datos integral basada en indicadores de calidad.
Los dominios de evaluación del MIDE sirven como base para el diseño de una bodega
de datos, en ese orden de ideas, el modelo dimensional de la bodega podría enriquecerse
con dominios adicionales relacionados con la financiación y el proceso de aprendizaje.
De hecho, este último fue el dominio en el cual se encontró más literatura relacionada.
La mayoría de la literatura en bodegas de datos aplicadas a IES no está exponiendo
los modelos dimensionales propuestos con la suficiente claridad explicativa, esto
se constituye en una oportunidad para contribuir desde la comunidad científica a su
correcta aplicación, creando modelos con un avanzado nivel de comprensibilidad.
Este trabajo se basa en el MIDE, propuesto por el Ministerio de Educación Nacional
de Colombia, pero se observa que es susceptible de ser replicado usando indicadores
de desempeño de otros países que permitan crear modelos de bodegas de datos para
almacenar, gestionar y analizar información académica relevante al contexto particular
de sus IES.
5. Trabajo futuro
Esta revisión sistemática permite viabilizar la definición de un modelo dimensional para
educación superior que de soporte a la proyección estratégica con base en indicadores
de calidad institucional; manejando una explicación y esquematización detallada de las
medidas y dimensiones.
Referencias
Abdullah, Z. A. S., & Obaid, T. A. S. (2016). Design and Implementation of Educational
Data Warehouse Using OLAP. International Journal of Computer Science and
Network, 5(5), 824–827.
Aljawarneh, I. M. (2016). Design of a data warehouse model for decision support at
higher education : A case study. Information Development, 32(5), 1691–1706.
[Link]
Aziz, A. A., Jusoh, J. A., Hassan, H., Sultan, U., & Abidin, Z. (2014). A framework for
educational data warehouse (EDW) architecture using business intelligence (BI)
technologies. Journal of Theoretical and Applied Information Technology, 69.
Bates, E. (2015). UVM Big Data? Aggregating Campus Databases and Creating a Data
Warehouse to Improve Student Retention Rates at the University of Vermont
(University of Vermont).
Bondarev, A., & Zakirov, D. (2016). Data Warehouse on Hadoop Platform for Decision
Support Systems in Education. Twelve International Conference on Electronics
Computer and Computation (ICECCO).
Budiarta, K., Agung, P., Wijaya, A., & Indrapartha, C. G. (2017). Analysis and Design
of Data Warehouse on Academic STMIK STIKOM Bali. International Journal of
Engineering and Emerging, 2(1), 35–39.
Cabrera, A., Morán, E., & Ramírez, I. (2014). Uso de la Tecnología Data Warehouse en
Unidades Educativas de Nivel Medio : Revista Ciencia UNEMI, 51–57.
Castelão Tetila, E. (2014). Modelagem de Dados com Data Warehouse e OLAP: um
estudo de caso. Revista EaD & Tecnologias Digitais Na Educação, 2, 20–29.
Cheowsuwan, T., Rojanavasu, P., Srisungsittisunti, B., & Yeewiyom, S. (2017).
Development of data warehouses and decision support systems for executives
of educational facilities in northern Thailand to increase educational facility
manageme. International Journal of Geoinformatics, 13.
Di Tria, F., Lefons, E., & Tangorra, F. (2015). Academic Data Warehouse Design Using a
Hybrid Methodology. Computer Science and Information Systems, 12(1), 135–160.
[Link]
Gao, L., & Chen, Y. (2015). Application Research of University Decision Support System
Based on Data Warehouse. Journal Computer Science and Its Applications, 12(1),
631–637. [Link]
Gorbea Portal, S., & Madera Jaramillo, M. (2015). Diseño de un data warehouse
para medir el desarrollo disciplinar en instituciones académicas. Investigación
Bibliotecológica, 31, 161–181.
Gorgan, V. (2015). Monitoring student performance. A data driven decision support
system approach: Case study. SEA - Practical Application of Science, 3(2), 135–140.
Hendrayana Surya, P. B., Rahardian, R. L., & Saputra, K. oka. (2017). Data Warehouse
Design Academic Affairs case study: campus STMIK STIKOM Bali Jimbaran.
International Journal of Engineering and Emerging Technology, 2(1), 104–106.
Iskandar, A. R., & Taufik, I. (2016). Readiness For Implementing Data Warehouse of
Higher Education System With Sodano’s Perspective. 4th International Conference
on Cyber and IT Service Management.
Khan B, A., Ghosh, S., & Ghosh, S. K. (2018). eDWaaS : A Scalable Educational Data
Warehouse as a Service. International Conference on Intelligent Systems Design
and Applications, ISDA, 998–1007.
Kitchenham, B., Charters, S., & Budgen, D. (2007). Guidelines for performing Systematic
Literature Reviews in Software Engineering. In Keele University. Durham and
Keele.
Kitchenham, B., Mendes, E., & Travassos, G. H. (2007). Cross versus Within-Company
Cost Estimation Studies: A Systematic Review. 33(5), 316–329.
Lapura, E. V. F., Kenneth, J., Fernandez, J., Jonathan, M., Pagatpat, K., Dante, D., …
Dante, D. (2018). Development of a University Financial Data Warehouse and its
Visualization Tool. Procedia Computer Science, 135, 587–595.
León-Barranco, A., Saucedo-Lozada, S. N., Avendaño-Jimenez, I. Y., Martínez-Leyva, R.,
& Carcaño-Rivera, L. A. (2015). Business Intelligence in Educational Institutions.
Research in Computing Science, 96, 43–53.
Martins, J., Branco, F., Gonçalves, R., Au-Yong-Oliveira, M., Oliveira, T., Naranjo-
Zolotov, M., & Cruz-Jesus, F. (2019). Assessing the success behind the use of
education management information systems in higher education. Telematics and
Informatics, 38, 182–193. [Link]
Medina Q, F., & Castillo-rojas, W. (2018). Data Mart para obtención de indicadores
de productividad académica en una universidad Data Mart to obtain indicators of
academic productivity in a university. Ingeniare. Revista Chilena de Ingeniería,
26, 88–101.
Mendoza, M. E., Durán, L., & Rivera, N. (2010). MBD 1.0. Metodología de Desarrollo de
Bodegas de Datos Para Micro, Pequeñas y Medianas Empresas. UIS Ingenierías,
9(1), 85–101.
Meyliana, Widjaja, H. A. E., & Santoso, S. W. (2014). University dashboard: An
implementation of executive dashboard to university. 2nd International Conference
on Information and Communication Technology (ICoICT), 282–287. [Link]
org/10.1109/ICoICT.2014.6914080
Ministerio de Educación Nacional de Colombia. (2018). Documento metodológico
MIDE Universitario 2018. 28. Retrieved from [Link]
[Link]/ckfinder/userfiles/files/Documento Metodológico MIDE T [Link]
Mirabedini, S. (2014). The Role of Data warehousing in Educational Data Analysis.
Journal of Novel Applied Sciences, 1439–1445.
Moreira, F., & Rocha, Á. (2018). A Special Issue on Disruption of higher education in the
21st century due to ICTs. Telematics and Informatics, 35(4), 930–932.
Moscoso-Zea, O., Paredes-Gualtor, J., & Lujan-Mora, S. (2018). A Holistic View of Data
Warehousing in Education. IEEE Access, 6, 64659–64673.
Moscoso-Zea, O., Sampedro, A., & Luján-Mora, S. (2016). Data warehouse design
for Educational Data Mining. 15th International Conference on Information
Technology Based Higher Education and Training (ITHET).
Moturi, C. A., & Emurugat, A. (2015). Prototyping an Academic Data Warehouse : Case
for a Public University in Kenya. British Journal of Applied Science & Technology,
8(6), 550–557. [Link]
Musa, S., Binti, N., & Ali, M. (2019). Success Factors for Business Intelligence Systems
Implementation in Higher Education Institutions – A Review. 843, 322–330.
[Link]
Nobre, T., Trigo, A., & Sanches, P. (2014). SBIAES - Sistema de Business Intelligence para
análise do Acesso ao Ensino Superior O caso do Instituto Politécnico de Coimbra.
9th Iberian Conference on Information Systems and Technologies (CISTI), 1–6.
[Link]
Panchal, R. (2016). Study on Barriers in Adoption of Data Warehouse for the Higher
Educational Institutes. We’Ken International Journal of Basic and Applied
Sciences, 1(4), 148–153.
Pasyeka, M. (2018). Development of Data Warehouse Structure Model for Educational
Process Management. Science Publishing Group, 6(1), 1–6.
Pesonen, J., Fomkin, A., & Jokipii, L. (2018). Building Data Science Capabilities into
University Data Warehouse to Predict Graduation.
Pinto, L. P., Becerra, L. E., & Gómez, L. C. (2013). Análisis del sistema de gestión
financiera sostenible de instituciones de educación superior públicas colombianas.
Revista Educación En Ingeniería, 8, 1–11.
Rosado, A. A. (2016). Consolidación de Indicadores Institucionales utilizando Bodega
de Datos. INGENIO UFPSO, 11, 53–63.
Rudy, & Miranda, E. (2015). Management Report for Marketing in Higher Education
Based On Data Warehouse and Data Mining. International Journal of Multimedia
and Ubiquitous Engineering, 10(4), 291–302.
Salaki, R. J., & Ratnam, K. A. (2018). Agile Analytics : Applying in the Development of
Data Warehouse for Business Intelligence System in Higher Education. 6th World
Conference on Information Systems and Technologies, 1038–1048.
Sanchez-Puchol, F., Pastor-Collado, J., & Borrell, B. (2017). Towards an Unified
Information Systems Reference Higher Education Institutions. Procedia Computer
Science, 121, 542–553. [Link]
Santoso, L. W. (2018). Data Warehouse with Big Data Technology for Higher Education.
Procedia Computer Science, 124, 93–99.
Song, Y., Pramudianto, F., & Gehringer, E. F. (2016). A Markup Language for Building a
Data Warehouse for Educational Peer-Assessment Research. 46th IEEE Frontiers
in Education Conference, 0–4.
Ta’a, A., Bakar, A., Shahbani, M., Chareen Chit, S., & Mohd Soid, M. H. (2017). Data
Warehouse System for Blended Learning in Institutions of Higher Education.
E-Academia Journal, 6(2), 144–155.
University of York. (2014). Database of Abstracts of Reviews of Effects (DARE): Quality-
assessed Reviews. Retrieved from Centre for Reviews and Dissemination (UK)
website: [Link]
Weir, A. (2009). Assuring Quality in Higher Education: The New Zealand Experience.
Journal of Institutional Research, 14(2), 60–72.
Winanti, Meyliana, Hidayanto, A. N., Prabowo, H., & Gaol, F. L. (2018). Key Successful
Factors of Executive Information System Implementation in Higher Education :
A Systematic Literature Review. 2018 International Conference on Information
Management and Technology (ICIMTech), (September), 1–9.
Zambrano, C., Matamala, A., Sepúlveda, U., & Varas, M. (2017). Análisis de rendimiento
académico estudiantil usando Data Warehouse Difuso. Revista Chilena de
Ingeniería, 25, 242–254.
Zulkefli, N. A., Miskon, S., Hashim, H., Alias, R. A., Abdullah, N. S., Ahmad, N., … Maarof,
M. A. (2015). A business intelligence framework for Higher Education Institutions.
ARPN Journal of Engineering and Applied Sciences, 10(23), 18070–18077.
maurosalazar@[Link], ccobos@[Link]
Grupo de I+D en Tecnologías de la Información (GTI), Universidad del Cauca, Sector Tulcán Edificio FIET
Oficina 422, 190003, Popayán, Colombia.
Pages: 323–336
1. Introducción
La comunidad científica y académica, propone contrarrestar el exceso de información
digital mediante la generación automática de resúmenes hoy día utilizado por ejemplo
en: 1) los motores de búsqueda para desplegar un breve resumen de las páginas Web o
documentos encontrados, 2) sistemas de gestión de aprendizaje electrónico para resumir
los contenidos de los objetos de aprendizaje, 3) sistemas de visualización de mensajes
de correo electrónico para dispositivos móviles, donde se despliega la información más
relevante teniendo en cuenta el reducido tamaño de la pantalla, entre otros usos.
La generación automática de resúmenes es una tarea compleja, los resultados aún distan
de los resúmenes que los seres humanos pueden elaborar, por ello, se integra con campos
de estudio como la minería de textos, el procesamiento de lenguaje natural (PLN) o
la recuperación de información (RI) los cuales utilizan modelos de representación de
documentos o textos como: el booleano, el probabilístico y el espacio vectorial (Hiemstra,
2009) para clasificar y calificar el grado de relevancia de las características de un texto
respecto a una consulta, relación del texto con el título o si un texto pertenece a un
tema específico, entre otras tareas. El modelo más comúnmente utilizado es el espacio
vectorial por su sencillez, fácil implementación y buenos resultados obtenidos en la
mayoría de las aplicaciones que manejan texto no estructurado o semi estructurado y la
generación automática de resúmenes extractivos no es la excepción.
Sidorov en 2013 propuso el uso de los n-gramas sintácticos para introducir información
lingüística (sintáctica) en los métodos de aprendizaje de máquina, demostrando que
su uso en diferentes tareas, por ejemplo, la atribución de autoría logra resultados
superiores en comparación con el uso de los n-gramas tradicionales, aunque se aumenta
el costo computacional debido al análisis sintáctico previo. Los resultados reportados
en experimentos con n-gramas sintácticos se lograron a partir de rutas continuas en
los árboles sintácticos (n-gramas sintácticos continuos) dejando el análisis de las
bifurcaciones (n-gramas sintácticos no continuos) para futuros trabajos. Cabe mencionar
que los n-gramas sintácticos continuos son un caso particular de los n-gramas sintácticos
no continuos (Sidorov, 2013b).
En el presente trabajo se combinan varios tipos de sintagmas para crear n-gramas
sintácticos continuos y no continuos a partir de las relaciones de combinación o relaciones
sintagmáticas en las rutas continuas y las bifurcaciones del árbol sintáctico, incluirlos en
el modelo espacio vectorial y generar automáticamente resúmenes extractivos genéricos
de un Dataset reconocido por la comunidad académica y científica del área.
Teniendo en cuenta el anterior contexto, al inicio de la investigación se planteó las
siguientes preguntas de investigación: 1) ¿Cómo representar un documento con
n-gramas sintácticos no-continuos que permita generar automáticamente resúmenes
extractivos genéricos de un documento para obtener resultados similares o superiores
al estado del arte? 2) ¿Qué parámetros de construcción de los n-gramas sintácticos no-
continuos (tamaño del n-grama y los elementos léxicos involucrados) permiten alcanzar
con el esquema de ponderación Okapi BM25, luego se presentan las investigaciones más
relevantes en n-gramas y algunos algoritmos destacados en la generación de resúmenes
extractivos de un documento.
(1)
La Figura 1 es un ejemplo de 5-grama (y di par [un, de] vueltas) que se conecta por
valencias verbales (o patrones de rección, es decir, relación entre una palabra y otras
relacionadas sintácticamente con ella), para el ejemplo, el verbo dar es trivalente y tiene
los actantes: quién (yo), cuántas (un par), qué (vueltas), por lo tanto es importante
tenerlos en cuenta al mismo tiempo en un n-grama (Sidorov, 2013a).
Mint 17.3 y Ubuntu 16.04 LTS Xenial), se evaluaron las ventajas y desventajas de cada
analizador como se describe en la Tabla 1.
Freeling fue seleccionado por sus prestaciones para la investigación, aunque sus
limitantes fueron: 1) problemas al tratar de integrar las librerías de análisis a la
herramienta desarrollada en Visual Studio de Microsoft (el desarrollador no ofrece el
mismo nivel de soporte que Linux) y 2) perdida de información de análisis dependiendo
de las librerías de C# que se utilizan para leer el XML. Además, se evaluó los niveles
de análisis: morfológico, etiquetado, tokenizado, dividido, parseado, constituyentes y
dependencias, este último el más adecuado en información y estructura, especialmente
la salida en formato XML por su estructura para encadenar las rutas de los subárboles
en forma de nodos anidados.
DUC2001 DUC2002
Algoritmo Modelo
R1R R2R R1R R2R
bolsa de palabras 42,224 15,858 45,171 18,704
1-grama 42,224 15,858 45,674 19,325
LexRank 2-gramas 44,133 19,361 47,481 21,779
3-gramas 44,014 19,264 47,423 21,630
4-gramas 44,025 19,040 47,178 21,352
bolsa de palabras 43,420 17,389 45,919 19,589
1-grama 43,420 17,389 44,697 18,215
LexRank Continuo 2-gramas 44,025 19,193 47,359 21,687
3-gramas 44,004 19,242 47,386 21,596
4-gramas 44,040 19,051 47,169 21,344
bolsa de palabras 44,139 18,890 47,629 22,107
1-grama 44,874 19,370 48,194 22,080
ESDS-GHS-GLO 2-gramas 42,917 17,613 46,661 20,749
3-gramas 43,130 17,943 46,268 20,215
4-gramas 43,386 18,203 46,169 20,178
Tabla 2 – Resultados del experimento con todos los sintagmas en DUC2001 y DUC2002
(mejores resultados en negrita)
La Tabla 2 permite observar dos aspectos importantes, el primero es que los dos
algoritmos basados en grafos (LexRank y LexRank Continuo) obtienen mejores
resultados cuando usa n-gramas sintácticos no continuos en lugar de una representación
de bolsa de palabras con términos sencillos. En LexRank se logra con 2-gramas,
obteniendo mejoras entre el 4,5% y el 22,1% en los dos datasets. En LexRank continuo
se logra en unos casos con 2-gramas (1 caso), 3-gramas (2 casos) y 4-gramas (1 caso)
con mejoras entre el 1,5% y el 10,7% en los dos datasets. El segundo, es que el algoritmo
ESDS-GHS-GLO obtiene los mejores resultados de todos con 1-grama mejorando entre
1,2% y el 2,5%, pero estos resultados no se mejoran con el uso de n-gramas con n >
1, es más pierden calidad (entre el 1,7% y el 8,7%). Estas dos observaciones permiten
identificar que el impacto o positivo o negativo de los n-gramas sintácticos no continuos
en los resultados del resumen dependen de la forma como el algoritmo de generación
de resúmenes use los datos de entrada, en este caso la matriz espacio vectorial que
representa el documento.
También se puede observar que los resultados entre 1-grama y la bolsa de palabras
(algoritmo clásico usado en el Framework) son iguales en DUC2001, pero son ligeramente
diferentes en DUC2002. Esto se debe a que Freeling realiza una fase de detección de
entidades y en la bolsa de palabras eso no se hace, por esta razón la matriz de 1-grama
en general tiene menos columnas, por ejemplo, con 1-grama “Presiente Bush” es un solo
grama, mientras que en la tradicional bolsa de palabras “Presidente” es un término y
“Bush” es otro término.
5. Conclusiones
La investigación permitió establecer una línea base para futuros trabajos donde se
emplee n-gramas sintácticos continuos y no continuos en la generación automática
de resúmenes extractivos genéricos de un documento. Los resultados experimentales
permiten mostrar que los dos algoritmos basados en grafos, LexRank y LexRank
Continuo obtienen mejores resultados cuando la matriz de frases por términos se realiza
con n-gramas sintácticos no continuos de 2, 3 o 4 gramas. Respecto al algoritmo ESDS-
GHS-GLO, los mejores resultados se obtuvieron con n-gramas sintácticos no continuos
de 1 grama y usando como esquema de representación del documento el centroide de
todos los n-gramas.
DUC2001
Algoritmo Sintagmas
R1R R2R
Todos 42,224 15,858
Nom-Adj-Ver-Adv 41,916 16,016
LexRank Nom-Adj-Ver-Prep 42,097 16,324
Nom-Ver-Prep-Adv 41,677 15,654
Ver-Adj-Prep-Adv 41,222 15,140
Todos 43,420 17,389
Nom-Adj-Ver-Adv 41,866 15,441
LexRank Continuo Nom-Adj-Ver-Prep 42,002 15,542
Nom-Ver-Prep-Adv 41,810 15,270
Ver-Adj-Prep-Adv 41,111 15,182
Todos 44,874 19,370
Nom-Adj-Ver-Adv 43,998 18,539
ESDS-GHS-GLO Nom-Adj-Ver-Prep 44,047 18,523
Nom-Ver-Prep-Adv 44,123 18,533
Ver-Adj-Prep-Adv 43,088 17,829
Agradecimientos
Al Instituto Politécnico Nacional de México, en especial al PhD. Alexander Gelbukh y al
PhD. Grigori Sidorov por sus asesorías en el desarrollo de esta investigación.
Referencias
Erkan, G., & Radev, D. R. (2004). LexRank: Graph-based Lexical Centrality as Salience
in Text Summarization. Journal of Artificial Intelligence Research, 22(4), 457–479.
Gao, J., Nie, J.-Y., Wu, G., & Cao, G. (2004). Dependence language model for information
retrieval. Proceedings of the 27th Annual International ACM SIGIR Conference
on Research and Development in Information Retrieval, 170–177. [Link]
org/10.1145/1008992.1009024
Gupta, V., Bansal, N., & Sharma, A. (2019). Text summarization for big data: A
comprehensive survey. Lecture Notes in Networks and Systems.
Hiemstra, D. (2009). Information Retrieval Models. In Information Retrieval: Searching
in the 21st Century (pp. 1–19). [Link]
Huston, S., & Croft, W. B. (2014). A Comparison of Retrieval Models using Term
Dependencies. Proceedings of the 23rd ACM International Conference on
Conference on Information and Knowledge Management - CIKM ’14, 111–120.
[Link]
Mahajani, A., Pandya, V., Maria, I., & Sharma, D. (2019). A Comprehensive Survey
on Extractive and Abstractive Techniques for Text Summarization. Advances in
Intelligent Systems and Computing.
Mendoza, M., Bonilla, S., Noguera, C., Cobos, C., & León, E. (2014). Extractive single-
document summarization based on genetic operators and guided local search.
Expert Systems with Applications, 41(9), 4158–4169. [Link]
eswa.2013.12.042
Mendoza, M., Cobos, C., & León, E. (2015). Extractive single-document summarization
based on global-best harmony search and a greedy local optimizer. In Lecture Notes
in Computer Science (Vol. 9414, pp. 52–66). [Link]
27101-9_4
Pratt, K. (2009). Design Patterns for Research Methods: Iterative Field Research. AAAI
Spring Symposium: Experimental Design for Real …, (1994).
Rijsbergen, C. J. Van. (1979). Information Retrieval. Information Retrieval, 208.
[Link]
Robertson, S., & Walker, S. (1994). Some Simple Effective Approximations to the 2 –
Poisson Model Probabilistic Weighted Retrieval. Proceedings of the 17th Annual
International ACM SIGIR Conference on Research and Development in Information
Retrieval, (1), 232–241. [Link]
Robertson, S., Zaragoza, H., & Taylor, M. (2004). Simple BM25 extension to multiple
weighted fields. Proceedings of the 13th ACM Conference on Information and
Knowledge Management, 42–49. [Link]
Saini, N., Saha, S., Jangra, A., & Bhattacharyya, P. (2019). Extractive single document
summarization using multi-objective optimization: Exploring self-organized
differential evolution, grey wolf optimizer and water cycle algorithm. Knowledge-
Based Systems, 164, 45–67.
Sidorov, G. (2013a). Construcción No Lineal De N-Gramas En La Lingüística
Computacional: N-gramas Sintácticos, Filtrados y Generalizados. México:
Sociedad Mexicana de Inteligencia Artificial.
Sidorov, G. (2013b). N-gramas sintácticos no-continuos. Polibits, (48), 69–78.
Sidorov, G. (2013c). N-gramas sintácticos y su uso en la lingüística computacional.
Vectores de Investigación, 6, 13–27.
Sidorov, G., Velasquez, F., Stamatatos, E., Gelbukh, A., & Chanona Hernández, L.
(2013a). Syntactic dependency-based n-grams: More evidence of usefulness in
classification. Lecture Notes in Computer Science, 7816, 13–24.
Sidorov, G., Velasquez, F., Stamatatos, E., Gelbukh, A., & Chanona Hernández, L.
(2013b). Syntactic dependency-based n-grams as classification features. Lecture
Notes in Computer Science, 7630, 1–11.
Singhal, A. (2001). Modern Information Retrieval: A Brief Overview. Bulletin of the
IEEE Computer Society Technical Committee on Data Engineering, 24(4), 35–43.
Zhao, J., Huang, J. X., & Ye, Z. (2014). Modeling term associations for probabilistic
information retrieval. ACM Transactions on Information Systems, 32(2), 1–47.
Mónica Yolanda Moreno Revelo1, Juan Bernardo Gómez Menoza1, Diego Hernán Peluffo
Ordoñez2
momorenor@[Link], jbgomezmendoza@[Link],
1
Universidad Nacional de Colombia, km 7 vía al aeropuerto, Manizales, Colombia
2
Universidad Yachay, Hacienda San José, Ibarra, Ecuador
Pages: 337–348
Abstract: Artificial vision and image processing have been widely used in the
field of scientific research related to satellite landscapes with purposes, like soil
classification, detection of changes in urban and rural areas, among others. The
existing prototypes have reported meaningful results, notwithstanding, the
implementation of a system more properly fitting the nature of the images by
taking into account factors such as lighting control, noise reduction and presence
of clouds is still an open and of-great-interest problem. This paper presents an
initial satellite image processing methodology for clustering crops. The proposed
methodology is as follows: Firstly, data pre-processing is carried out, followed
by a feature extraction stage. Secondly, image clustering is performed by means
of a probabilistic algorithm. This methodology is validated with the Campo Verde
database built over crops from a Brazil’s area. Our approach reaches a classification
percentage 87.97%, sensitivity 87.1%, specificity 97.22 and f1_score 71.78 %.
1. Introduction
A satellite image is a visual representation of information captured by a sensor aboard
a satellite (Bastidas & Bravo, 2017). Currently, a large number of satellites are designed
to capture information from different areas around the world, being the ones obtained
by the Landsat satellite the most commonly used in most scientific research related to
satellite image processing such a fact is due to its availability, along with spectral, spatial
and temporal resolution (Galindo, Rubiano, Vergara, & Cabrera E, 2014). Satellite
image processing encompasses a large number of applications aimed at solving different
problems, such as control and monitoring of deforestation from the detection of changes
in images, crop classification to map soil usage, weather forecasting, among others (Lobell,
Thau, Seifert, Engle, & Little, 2015), (Hutchinson, Jacquin , Hutchinson, & Verbesselt,
2015), (Baig, Zhang, Shuai, & Tong, 2014). Several works related to the processing of
satellite images have been carried out. In this sense, it is worth to mention the work
presented in (Jaramillo & Antunes , 2018), which is based on comparison of a post-
classification methods, consisting of classification of a determined area independently
for each period of time. The work of Pelletier et al. (Pelletier, Valero , Inglada, Champion,
& Dedieu, 2016) is based on direct classification techniques that consist of using time
series and methods, namely the analysis of change vectors. Sanches et al (Sanchez,
I; Feitosa, R; Diaz, P; Soares, M; Luiz, A; Schultz, B; Maurano, L, 2018) introduces a
database of labeled satellite images, so called Campo Verde. Such a database allows for
assessing classification techniques over different crops in time series so that agricultural
production can be enhanced. In particular, this research makes a classification of the
images using stacking and a decision tree. In (Picoli, M; Camara, G; Sanchez, I; Simoes,
R; Carvalho, A; Maciel, A; Coutinho, A; Esquerdo, J; Antunes, J; Begotti, R, 2018), the
Campo Verde database is also used and different crops are classified over the period 2015-
2016, jointly analyzing the deforestation caused by the crops present during this period
of time. Although the aforementioned researches have demonstrated suitable results, the
development of a method reaching a good compromise between robustness (to factors
such as: lighting, noise, execution time and cloudiness) and accuracy is still an open issue.
The present paper is an exploratory study, our objective is classifying 10 different types
of crops (soy, corn, cotton, sorghum, beans, non-commercial crops (NCC), pasture and
turfgrass, eucalyptus, soil, and Cerrado) with a clustering method based on Parzen’s
probability and initialization max-min. The database used in our study is the one
introduced in (Sanchez, I; Feitosa, R; Diaz, P; Soares, M; Luiz, A; Schultz, B; Maurano,
L, 2018), which consists of two sets of images: one of them obtained with the Sentinel
satellite, and another captures with the Landsat 8 satellite. We chose the Landsat images
for the scope of this work, because it presents a better spatial resolution in comparison with
Sentinel, and therefore small changes can be better distinguished (Zhu & Woodcock, 2014).
The proposed methodology is as follows: first, images are filtered by means of a median
filter, just as recommended in (Xueyan, Xinang, Yang, & Liang, 2017). Second, a feature
extraction is performed with the coefficients of Hermite. Finally, data clustering is carried
out by using a probabilistic algorithm based upon the Parzen windows. In order to improve
the efficiency of the clustering algorithm, centroids were initialized using max-min, rather
than using a random initialization. The rest of this paper is structured as follows: Section 2
describes the proposed methodology; Section 3 presents the results, and a brief discussion
of them. Finally, some concluding remarks and future works are given in Section 4.
2. Methodology
The methodology depicted in diagram of Fig.1 is proposed in order to cluster different
types of soil cover.
2.1. Database
Campo Verde is a database built and released by Sanches et al (Sanchez, I; Feitosa, R;
Diaz, P; Soares, M; Luiz, A; Schultz, B; Maurano, L, 2018). It provides the scientific
community with a set of labeled satellite images. Campo Verde is located in western
Brazil. This locality has a tropical climate, and its average temperature is 23°C which
favors the harvest of crops such as corn, beans, cotton, among others.
The images of the database were acquired with the satellites Landsat 8 and Sentinel, 14
and 16 images available from each satellite. About the Sentinel images, it has a geometric
resolution of 20 m and a swath of 250km. About the Landsat images, it has a resolution
of 30m except the panchromatic band, which has 15-m resolution, the images were
acquired with OLI sensor, and so, the images have eight bands. The images of database are
georeferenced and clipped to the area of study. The data were acquired in the period ranging
from October 2015 to July 2016. In Figure 2 is possible observe an image of the database.
2.2. Pre-processing
Images are filtered with a median filter according to the recommendation given in
(Xueyan, Xinang, Yang, & Liang, 2017). Next, the images are standardized in order to
avoid that the data with big value influence negatively the data with small values. Data
standardization is done according to equation 1.
(1)
(2)
The Hermite coefficients are used in order to obtain the feature set of the images. The
first two polynomials are defined for: y . The next polynomials are
obtained with equation 3:
(3)
(4)
Table 1 – Algorithm 1
2.3. Clustering
A probabilistic algorithm is used in order to segment the images, so the data are assigned
to a cluster according to the membership value of the data to a cluster.
In this paper, the non-parametric probability with the Parzen probability is used (see
equation 5}.
(5)
(6)
(7)
if
Finish and the solution is
else
Return to step 1
Table 2 – Algorithm 2
Table 3 – Algorithm 3
In order to improve the results on the minority classes, we used an approach based on
segment clustering. This approach consists of dividing into subsets, called segments,
and later applying a clustering procedure for each segment; then, a cluster merger stage
is realized. More information about this method can be found in (Rodriguez, Peluffo, &
Dominguez, 2015).
(8)
(9)
(10)
where:
: is the precision.
: is the recall.
: are the true positives or the number pixels CI classified correctly.
: are the true negatives or the number pixels NCI classified correctly.
: are the false positives or the number pixels NCI classified as CI.
: are the false negatives or the number pixels CI classified as NCI.
3. Results
The tests are based on flowchart of Figure 3.
The tests performed are applied on some labeled zones of the satellite images, in order
to review the performance of the algorithm used. The tests are made in 10 images of the
database, some images are omitted because of some images are acquired on consecutive
days and the January image is omitted too because of this had clouds only. Two tests are
performed on the database, algorithm of Table 2 with a random initialization is applied
in the first test and algorithm of Table 2 with a max-min initialization (depicted in Table
3) is applied in the second test.
The results can be observed in the Table 4, which, discloses the total number of pixels
analyzed, the percentage of sensitivity ( ), the percentage of specificity ( ), f1_score
and the percentage of classification ( ) for each of the tests performed,
is the notation used to define the following classes: : Soybean, : Corn, : Cotton,
: Sorghum, : Beans, : NCC grasses, : Pasture and turfgrass, : Eucalyptus,
: Soil, : Cerrado.
Image 1 is an image of the database, which, has only two classes with the same number of
pixels for each class, in order to review the effect that the balancing of classes has on the
performance measures. Table 4 depicts the results for some images and Table 5 depicts
the means of the results for all images.
The results of image 1 are better than the results obtained in the other images. This fact
happened because of image 1 has the same amount of data to each class, i.e., the classes
are balanced and this does not happen in the other images.
For this case, the max-min initialization improves notably the results in the whole set
of images, this fact happens because of the chosen centroids in the initialization of the
algorithm 2 have less probability belong to the same cluster since max-min ensures a
better separation between the centroids.
Image 1 1783 92.5 97.5 92.47 99.25 92.8 92.8 92.73 92.8
October 6798 79.08 91.74 72.79 90.14 87.22 98.8 78.3 95.89
December 6800 51.6 97.12 64.64 88.27 72.72 99.2 71.66 95.29
February 6798 33.57 92.8 33.42 67.53 91.15 96.6 84.32 84.5
March 6799 39.08 95.7 40.09 73.83 57.67 98.73 52.69 91.85
April 6799 71.52 98.39 84.61 90.5 81.2 97.53 72.72 86.29
May 6799 65.37 95.84 70.28 76.15 62.69 96.8 55.56 80.8
June 6799 52.16 96.26 55.68 75.5 77.58 97.06 70.85 83.25
The results of the Table 5 are summarized in Figure 4 and Figure 5. These figures
depict the Percentage average to each measure: and .
In Figure 4 and Figure 5 we can appreciate that unlike image 1 the in the clustering
of data in all the images does not exceed 92% and the does not exceed 82% while
the remains almost constant around 97%, the difference in the percentage of these
measures is due to the fact that the sensitivity measures the proportion of data CI
classified correctly, in a clinical environment for example, the measures the
classification success of a sick person as sick and not healthy while the measures the
success of classification of a healthy person as healthy and not sick. Respect to f1_score,
this measurement is low in the most months because the database is misbalanced. In
Some Works that have used the Campo Verde database are (Sanchez, I; Feitosa, R;
Diaz, P; Soares, M; Luiz, A; Schultz, B; Maurano, L, 2018) with a random forest and
(La Rosa, Happ, & Feitosa, 2018), these research have reached a good performance on
the all data base, approximately 65% and 81.7% respectively. It is worth remember that
our approach only considered some data and not all data base because we presented a
preliminary study.
4. Conclusions
In this work a probabilistic algorithm with random and max-min initialization were
used, the methods were applied on the Campo Verde database and the results obtained
were good for some cases as the case of image 1. The best results without considering
image 1 were obtained for February because this image got a f1 84.32% while that the
worst results were obtained for April with a f1 72.72%, this probably happened due to the
presence of minority classes.
The main advantage of using the max-min algorithm -instead of at randomly- for
centroids initialization is that the classification results improve markedly as there is a
better separation between the centroids of every group.
In the classification stage, we will use other methods such as those based on deep neural
networks because that does not require characterization and a comparative study of
these techniques will be carried out with those already implemented.
In addition to these direct classification methods, it will be possible to evaluate the
change in the coverage of soils in satellite images, helping to solve other problems such
References
Baig, M., Zhang, L., Shuai, T., & Tong, Q. (2014). Derivation of a tasselled cap
transformation based on Landsat 8 at-satellite reflectance. Remote Sensing Letters,
423-431. doi: 10.1080/2150704X.2014.915434
Bastidas, A., & Bravo, L. (2017). Análisis de imágenes satelitales para clasificación de
biomasa en el departamento de Nariño. Pasto.
Dhanachandra, N., Manglem, K., & Chanu, Y. (2015). Image segmentation using
K-means clustering algorithm and subtractive clustering algorithm. Procedia
Computer science, 764–771. doi: 10.1016/[Link].2015.06.090
Galindo, G., Rubiano, J., Vergara, L., & Cabrera E. (2014). Protocolo de procesamiento
digital de imágenes para la cuantificación de la deforestación en Colombia. Instituto
de Hidrología, Meteorología y Estudios Ambientales – IDEAM.
Ganesan, V., & Vasuki, S. (2018). Maximin distance based band selection for endmember
extraction in hyperspectral images using simplex growing algorithm. Multimedia
Tools and Applications. doi: 7221–7237. 10.1007/s11042-017-4630-0
Hutchinson, J., Jacquin , A., Hutchinson, S., & Verbesselt, J. (2015). Monitoring
vegetation change and dynamics on US Army training lands using satellite image
time series. Journal of environmental management, 355–366. doi: 10.1016/j.
jenvman.2014.08.002
Jaramillo, L., & Antunes , A. (2018). Detección de cambios en la cobertura vegetal
mediante interpretación de imágenes Landsat por redes neuronales artificiales
(RNA): Caso de estudio: Región Amazónica Ecuatoriana. Revista de teledetección,
33-46. doi: 10.4995/raet.2018.8995
La Rosa, L., Happ, P., & Feitosa, R. (2018). Dense fully convolutional networks for
crop recognition from multitemporal sar image sequences. IEEE International
Geoscience and Remote Sensing (IGARS), (págs. 7460-7463). doi: 0.1109/
IGARSS.2018.8517995
Lobell, D., Thau, D., Seifert, C., Engle, E., & Little, B. (2015). A scalable satellite
based crop yield map. Remote sensing of environment, 324-333. doi: 10.1016/j.
rse.2015.04.021
Pelletier, C., Valero , S., Inglada, J., Champion, N., & Dedieu, G. (2016). Assessing the
robustness of Random Forests to map land cover with high resolution satellite
image time series over large areas. Remote Sensing of Environment, 156-168. doi:
10.1016/[Link].2016.10.010
Peluffo, D., Rodriguez, J., & Castellanos, G. (2008). Metodología para la reconstrucción
y extracción de caracterısticas del complejo qrs basada en el modelo paramétrico de
hermite. V Semana Técnica de Ingenierıas Eléctrica y Electrónica.
Picoli, M., Camara, G., Sanchez, I., Simoes, R., Carvalho, A., Maciel, A., . . . Begotti,
R. (2018). Big earth observation time series analysis for monitoring Brazilian
agriculture. ISPRS Journal of Photogrammetry and Remote Sensing. doi:
10.1016/[Link].2018.08.007
Rodriguez, J., Peluffo, D., & Dominguez, G. (2015). Segment clustering methodology
for unsupervised holter recordings analysis. 10th International Symposium on
Medical Information Processing and Analysis. doi: 10.1117/12.2073882
Sanchez, I; Feitosa, R; Diaz, P; Soares, M; Luiz, A; Schultz, B; Maurano, L. (2018).
Campo Verde Database: Seeking to Improve Agricultural Remote sensing of tropical
areas. IEEE Geoscience and Remote Sensing Letters, 369–373. doi: 10.1109/
LGRS.2017.2789120
Xueyan, G., Xinang, L., Yang, Y., & Liang, H. (2017). Multi-temporal and multi-
view based remote sensing image registration for ground surface objects change
monitoring. 13th IEEE International Conference on Electronic Measurement &
Instruments (ICEMI), (págs. 559-566). doi: 10.1109/ICEMI.2017.8265892
Zhu, Z., & Woodcock, C. (2014). Continuous change detection and classification of land
cover using all available Landsat data. Remote sensing of Environment, 152-171.
doi: 10.1016/[Link].2014.01.011
1
Facultad de Ingeniería en Ciencias Aplicadas, Universidad Técnica del Norte, 100150, Ibarra, Ecuador.
2
Facultad de Informática, Universidad Nacional de La Plata, 1900, La Plata, Argentina.
Pages: 349–362
Abstract: This work details the security evaluation process of Técnica del Norte
University teacher evaluation system, in order to establish objectives and controls
that minimize the vulnerabilities of the management system. Information was
collected through surveys, interviews and work meetings. Next, the Magerit
methodology was applied through the PILAR software, which allowed information
and assets collection, such as hardware, software, and human assets, and then,
an assessment according to its incidence in integrity, confidentiality, availability,
authenticity and traceability, was made. The factorial structure of the survey was
designed using exploratory factor analysis and the results were validated by means
of confirmatory factor analysis. In addition, a review of ISO / IEC2001: 2013 and
an evaluation of compliance based on ISO / IEC 2700: 2017 was performed. To
detect the security of this system, penetration tests were made on the detected
vulnerabilities, by means of SQLmap and Nmap tools.
Keywords: informatic security system evaluation; ISO/IEC 27002:2017; factorial
exploratory analysis; validity; fiability.
1. Introducción
Las organizaciones se enfrentan a un número alto de inseguridades que provienen
de varias fuentes, por esta razón los Sistemas de Seguridad de Gestión Informática
deberían estar implementados con estándares en cuanto a seguridad, integridad
y confidencialidad. Para (Muñoz, 2015) un SGSI para una organización es el diseño,
implantación, mantenimiento de un conjunto de procesos para gestionar eficientemente
la accesibilidad de la información buscando asegurar la confidencialidad, integridad
y disponibilidad de los activos de información, minimizando a la vez los riesgos de la
seguridad de la información.
Las instituciones educativas suelen presentar problemáticas en lo relacionado a la
seguridad de la información de los datos que a diario emplean, desde bases de datos
información de sus alumnos, docentes y personal administrativo, en el intercambio de
información que tienen que realizar entre centros u organismos educativos institucionales.
Dentro de la Universidad Técnica del Norte se usan los sistemas de gestión de
información, siendo un activo fundamental la información la misma que necesita
protección ante amenazas que afectan diariamente la disponibilidad e integridad de la
organización así mismo poder evitar riesgos altos, daños operantes y económicos para
la organización. Por lo antes mencionado se debe establecer procedimientos y controles
de seguridad los cuales se obtienen del análisis de riesgos, establecer parámetros para
poder identificar amenazas que afectan a los activos de la organización, además verificar
vulnerabilidades y de esta manera determinar el impacto que tendrá en la institución las
posibles amenazas encontradas.
Los problemas de seguridad informática alcanzan a todas las organizaciones que
tienen alto volumen de información sea esta financiera o académica, ésta es la razón se
vuelve blanco de posibles ataques. La seguridad informática se relaciona con procesos,
procedimientos y metodologías que ayudan a salvaguardar los datos, estos procesos
se van estructurando con el uso de normas, protocolos, estándares que servirán para
minimizar riesgos en una infraestructura tecnológica.
El autor (Baca, 2016) define a la seguridad informática como: la disciplina que, con
base en políticas y normas internas y externas de la empresa, se encarga de proteger la
integridad y privacidad de la información que se encuentra almacenada en un sistema
informático, contra cualquier tipo de amenazas, minimizando los riesgos tanto físicos
como lógicos a los que se encuentra expuesta.
Según (Romo & Valarezo, 2012) la seguridad de la información está apoyada en 3 pilares
fundamentales de la seguridad:
•• Confidencialidad: Certifica que solo los usuarios con accesos autorizados puedan
acceder a la información. La seguridad que se implementará debe asegurar que solo
las personas que tengan acceso a la información fueron autorizadas. Una medida
que mitiga este tipo de riesgo es la firma de contratos de confidencialidad o inclusión
de este tipo de cláusulas en el contrato de servicio (Ministerio de Energía, 2017).
•• Integridad: Hace referencia a que la información sea correcta y no se modifique,
ni haya errores. La información puede ser corrompida y se puede basar decisiones
en torno a la información, lo cual da la alteración malintencionada en los
ficheros del sistema informático mediante la explotación de una vulnerabilidad
(Hidalguense, 2011).
•• Disponibilidad: Según (Chilán & Williams, 2017) la disponibilidad es cuando se
asegura que los usuarios autorizados tienen el acceso debido a la información siendo
la característica, cualidad o condición de la información de encontrarse a disposición
de quienes deben acceder a ella, ya sean personas, procesos o aplicaciones.
La información es el núcleo dentro de una organización, como se aprecia en la figura 1,
indica la relación que existe dentro de la misma, por ello es necesario mantener un nivel
aceptable de protección para estos componentes y minimizar los riesgos a los que puede
estar expuesta cualquier tipo de entidad.
2. Materiales y Métodos
los activos, este, acumulado se calcula mediante el valor del activo y las amenazas a
las que afronta, y este impacto repercutido se considera el valor propio y las amenazas
(MAGERIT, 2012) . Con respecto a lo establecido se escoge esta metodología por ser la
más completa y evalúa todos los pilares de la seguridad informática, con la ayuda del
software de complemento, como lo es el PILAR, se puede obtener fácilmente las gráficas
de impactos y riesgos acumulados.
2.2. PILAR
PILAR, es un acrónimo de “Procedimiento Informático Lógico para el Análisis de
Riesgos”, es una herramienta desarrollada bajo especificación del Centro Nacional de
Inteligencia para soportar el análisis de riesgos de sistemas de información siguiendo
la metodología Magerit (Ministerio de Hacienda y Administraciones Públicas de
España, 2012).
La herramienta soporta todas las fases del método Magerit que son: caracterización de
los activos (identificación, clasificación, dependencias y valoración), caracterización
de las amenazas y evaluación de las salvaguardas. Además, la herramienta incorpora
los inventarios del “Catálogo de Elementos” permitiendo una homogeneidad en los
resultados del análisis, siendo: tipos de activos, dimensiones de valoración, criterios de
valoración y catálogo de amenazas.
Una vez realizado el análisis con MAGERIT, se procedió a ingresar los datos en la
herramienta PILAR, la misma que ayudó a evaluar la situación actual y de esta manera
proponer soluciones eventuales en el departamento de DDTI de la Universidad Técnica
del Norte.
Equipamiento Servidores HP Blade System, equipos Informáticos PC, Laptop’s, Call Manager,
Informático Gateway de voz, IVR (contestadora automática), Tape Backup, Switchs Core,
(Hardware) Switchs de acceso, Cisco ASA, Firewall, Ipx, Router, Antenas y radio enlaces,
Access point, Torres, Racks, Cableado estructurado
Valoración de activos
La valoración del activo se lo puede hacer de forma cuantitativa, es decir asignando una
cantidad numérica, también es posible valorar el activo de forma cualitativa, es decir
asignado niveles. En este caso de estudio la metodología empleada para la valoración fue
la elaboración de una encuesta aplicada a los usuarios del sistema de evaluación docente,
mediante la cual se diseñó un constructo aplicando Análisis Factorial Exploratorio
AFE que permitió valorar los dominios objetivos y controles estipulados por la norma
ISO/IEC 27002:2017, en sus componentes: Aspectos Organizativos, Control de Acceso
y Cumplimiento. Posteriormente se validó el instrumento y la estructura factorial
mediante Análisis Factorial Confirmatorio AFC, de manera que los datos de valoración
que se emplearán en Magerit y Pilar estén dotados de validez y fiabilidad (Batista y
Coenders, 2010).
La encuesta estuvo constituida de 10 preguntas de se diseñaron en base a la normativa
para permitir valorar las puntuaciones que los usuarios del sistema les otorgaron a los
componentes. La evaluación se conformó de 529 encuestas aplicadas a usuarios, docentes
y personal administrativo que han utilizado el sistema de evaluación docente. Los
resultados obtenidos fueron tratados y ejecutados las pruebas estadísticas empleando el
lenguaje de programación R mediante RStudio. Inicialmente se verificó que no existan
valores perdidos mediante la librería mice, además se obtuvieron las distancias de
Mahalanobis para cada variable y mediante estas, en conjunto con los cuantiles de la
distribución chi cuadrada para un pvalue de 0.999, se estableció un puntaje de corte de
29,5883, mediante el cual se detectaron y eliminaron 15 observaciones atípicas por lo
que la base de datos con la que se trabajó estuvo conformada de 514 encuestas.
Como el AFE y AFC son técnicas estadísticas paramétricas, se verificó los supuestos para
estas. Inicialmente para el supuesto de aditividad se obtuvo la matriz de correlación
bivariada para todas las posibles combinaciones de preguntas, donde se observó que
ninguna de las parejas de variables alcance una correlación perfecta en rango de 0,95 a
1, por lo que se alcanza el supuesto de aditividad.
Posteriormente para verificar los supuestos de linealidad, normalidad, homogeneidad y
homocedasticidad se ejecutó un análisis de regresión lineal falsa basado en los residuos
estandarizados obtenidos para los cuantiles . Los resultados obtenidos se resumen
en la figura 1.
Figura 1 – Histograma, QQ Plot y Scatter Plot de los valores estandarizados obtenidos para los
cuantiles
Una vez validado el instrumento los valores obtenidos a partir de la encuesta fueron
empleados para efectuar la valoración de activos en el software pilar. La figura 4
muestra la valoración de activos efectuada estadísticamente en conjunto con los datos
suministrados por el DDTI.
Identificación de amenazas
La identificación de amenazas consiste en identificar posibles amenazas que pueden
afectar a cada uno de los activos anteriormente identificados. Para ello fue necesario
revisar documentación acerca de políticas de seguridad del sistema a evaluar, por
ejemplo, verificar si existen políticas para el acceso al sistema de evaluación docente. Una
vez valorados los activos Pilar asocia a cada uno de los activos del sistema de evaluación
docente, amenazas posibles para dicho activo. En la figura 5 se realiza la valoración de
la frecuencia, se toma en cuenta dos factores importantes: probabilidad de ocurrencia,
que es el registro de ocurrencia de una amenaza cuando se materializa una amenaza y
porcentaje de degradación que es el daño que causó el incidente ocurrido (Fernandez &
Daniel, 2016).
Impacto
El impacto es el daño que se originó en los activos una vez que las amenazas se
materializaron. Para la estimación de impacto se lo hace mediante los siguientes factores:
la materialización de una amenaza puede afectar a todo un recurso informático o solo
a una parte de este, la materialización de una amenaza puede afectar a partes claves de
información o a partes independientes, una vez materializada la amenaza es temporal o
permanente. Los impactos pueden traer consigo impactos cualitativos o cuantitativos,
por ejemplo, pérdidas económicas, mala imagen de los clientes hacia la empresa entre
muchas otras (Fernandez & Daniel, 2016). Dentro de PILAR se puede obtener el impacto
acumulado para cada activo, amenaza y la dimensión de valoración, el resultado está
descrito en función de la degradación y el valor acumulado; por lo tanto, mientras más
grande sea la degradación, mayor será el impacto acumulado, y este permitirá identificar
que salvaguardas se deben aplicar en la organización para mitigar los riesgos, como se
muestra en la Figura 6.
(a) (b)
Figura 6 – Impacto (a) y Riesgo Acumulado del Sistema de Evaluación Docente (b)
Riesgo
La figura 6, literal (b), presenta la valoración de riesgos, que es un proceso que debe
seguir la secuencia: identificación de activos, identificación de amenazas y la estimación
de vulnerabilidades de amenazas sobre cada activo. Para la valoración de riesgos existen
cuatro zonas: Bajo (0 a 3) indica que el riesgo es bajo; por lo tanto, no es necesario
emplear salvaguardas adicionales, Medio (3 a 6), indica que el riesgo es medio; por lo
tanto, se debe considerar la implementación de salvaguardas, Alto (6 a 9), indica que
el riesgo es alto; por consiguiente, es obligatorio emplear salvaguardas para mitigar
riesgos, Crítico (9 a 12), indica que el riesgo es crítico; por que es obligatorio emplear
salvaguardas adicionales para minimizar el riesgo.
3. Resultados y Discusión
Una vez que se realizó el análisis mediante la metodología se procede a evaluar el
cumplimiento d los controles del sistema de Evaluación Docente mediante la Norma
ISO/IEC 27002:2017, donde se pudo evidenciar que se cumple un 53% de los controles
de la norma ISO/IEC 27002:2017. Los ítems que el sistema cumplió a cabalidad acorde
con la norma antes mencionada se detallan en la tabla 2.
Aspecto general Objetivo de control Control Cumple
Políticas de Dirección de gestión Políticas de seguridad de la información SI
seguridad de la de la seguridad de la Revisión de las políticas para la seguridad NO
información información de la información
Organización Organización interna Roles y responsabilidades de seguridad de NO
de la seguridad la información
informática Separación de funciones SI
Contacto con las autoridades SI
Contacto con los grupos de interés NO
especial
Dispositivos móviles y Política de dispositivos móviles NO
teletrabajo
Seguridad en Antes del empleo Investigación de antecedentes SI
recursos humanos Términos y condiciones de empleo NO
Durante el empleo Responsabilidades de dirección SI
Conciencia, educación y formación en NO
seguridad de la información.
Proceso disciplinario NO
Finalización o cambio Responsabilidades ante la finalización o NO
de empleo cambio de empleo
Gestión de activos Responsabilidad de Inventario de activos SI
los activos Propiedad de activos SI
Uso adaptable de activos SI
Devolución de activos SI
Control de acceso Requisito de negocio Política de control de acceso NO
para el control de Acceso a redes y servicios de red NO
acceso
Gestión de acceso de Registro y retiro de usuario SI
los usuarios Provisión de acceso a usuarios NO
Gestión de la información secreta de NO
autentificación de los usuarios
Revisión de los derechos de acceso de NO
usuario
Retiro y ajuste de los derechos de acceso NO
Responsabilidades del Uso de la información secreta de NO
usuario autentificación
Control de acceso Procedimientos seguros de inicio de NO
a sistemas y sesión
aplicaciones Sistema de gestión de contraseñas NO
Control de acceso al código fuente del SI
programa
RISTI, N.º E22, 08/2019 359
Evaluación de sistemas de seguridad informáticos universitarios Caso de Estudio: Sistema de Evaluación Docente
4. Conclusiones
El factor que aumenta significativamente el nivel de riesgo de los activos de información
es el escaso proceso que se aplica y adhiere al problema expuesto para evitar aquellas
situaciones que pueden afectar la disponibilidad, integridad y confidencialidad de la
información que se manipula. La aplicación del estándar ISO/IEC 27002:2017 es de
suma importancia para la correcta evaluación de controles que garanticen la seguridad
de la información del sistema de Evaluación docente de la UTN. La evaluación de riesgos
del sistema de evaluación docente es indispensable para el departamento de informática
de la Universidad Técnica del Norte, puesto que se considera a la información como un
activo institucional. El uso de la Metodología MAGERIT permite realizar un análisis de
riesgos mediante la identificación de activos del sistema de evaluación docente y fue de
ayuda para identificar el estado actual de la seguridad de la información. La situación
actual del sistema de evaluación docente evidencia un nivel considerable de cumplimiento
de políticas de seguridad de información, tanto física como de gestión (51%), por lo
que requiere de un compromiso de autoridades y docentes para un cumplimiento total
de la normativa. De igual manera se requiere que en los departamentos de tecnología
de las universidades cuenten con personal calificado que se encargue de la seguridad
de la información de los ERP, pues al realizar un análisis de vulnerabilidades tres
herramientas brindaron información exacta de los puntos críticos que se deben revisar
para evitar estar expuestos a hackers informáticos.
Referencias
Baca, G. (2016). Introducción a la Seguridad Informática. Mexico: Grupo Editorial
Patria, S.A. de C.V.
CEIDPA. (2018). Evaluación integral del desempeño del personal académico de la UTN
para el período septiembre 2018 - agosto 2019. Ibarra.
Chilán, S. E., & Williams, P. P. (2017). Apuntes teóricos introducctorios sobre la
seguridad de la información. Revista Científica Dominio de las Ciencias, 284–295.
Fernandez, A., & Daniel, G. (2016). Complex vs. simple asset modeling approaches for
information security risk assessment: Evaluation with MAGERIT methodology.
Sixth International Conference on Innovative Computing Technology (INTECH)
(págs. 542 - 549). Dublin, Ireland: IEEE Xplore.
Hidalguense, U. T. (2011). Auditoria. Mexico: UTHH.
INEN. (2017). Norma INEN ISO/IEC 27002. QUITO: INEN.
MAGERIT. (Octubre de 2012). Metodología de Análisis y Gestión de Riesgos de
los Sistemas de Información. Obtenido de [Link]
[Link]/pae_Home/pae_Documentacion/pae_Metodolog/pae_Magerit.html#.
XXgJlGa21PY.
Ministerio de Energía, T. y. (2017). Protección de la Información. Madrid: Ministerio de
Energía, Turismo y Agenda Digital España.
Ministerio de Hacienda y Administraciones Públicas de España. (2012). Magerit - version
3.0. Metodología de Analisis y Gestión de Riesgos de los Sistemas de Información.
Madrid: Ministerio de Hacienda y Administraciones Publicas de España.
Muñoz, M. (2015). Guía de implantación de un SGSI basado en la norma UNE-ISO/
IEC 27001.
Pettersson, E., & Turkheimer, E. (2010). Item selection, evaluation, and simple structure
in personality data. Journal of research in personality, 44(4), 407–420.
Romo, V. D., & Valarezo, C. J. (2012). Análisis e implementación de la norma ISO 27002
para el departamento de sistemas de la Universidad Politécnica Salesiana Sede
Guayaquil. Guayaquil.
Rosseel, Y., & Lavaan. (2012). An R Package for Structural Equation Modeling. Journal
of Statistical Software, 48(2), 1–36.
1
Faculty of Engineering in Applied Sciences, Universidad Técnica del Norte, 100105. Ibarra- Ecuador
2
Unidad Educativa Juan Pablo II. Ibarra-Ecuador.
Pages: 363–374
Abstract: This paper presents a conceptual architecture for content analysis about
the opinions expressed on Twitter about abortion. The architecture consisted of
five stages: authentication, data collection, data cleaning & processing, modeling
& analysis, and presentation of results. In the data collection, a simple size of
tweets sent from Ecuador was taken in 2018. All tweets that were not related to
the topic were eliminated. In the modeling, it was separated into two categories
for and against abortion, where the Naive Bayes and decision tree classifiers were
used. Finally, the results were presented in the form of statistical graphs, word
clouds and heat maps. During the development, the Google maps platform was also
used, where the scripts were made in Python using the Integrated Development
Environment (IDE) Spyder (Python 3.6), which is part of the Anaconda platform.
The results obtained showed, on average, a majority position against abortion in
Ecuador.
Keywords: Data mining; content analysis; abortion; social networks; Twitter
1. Introduction
The advancement of technology and the exponential growth in the volume of structured,
unstructured, and semi-structured data is increasingly evident (Umaquinga C., Peluffo O,
Alvarado P., & Cabrera V., 2016). This has led not only to far-reaching changes in the area
of technology, but also in the way all of humanity communicates (González-Lizárraga,
Becerra-Traver, & Yanez-Díaz, 2016), (Baviera, 2016). The cyber communication (Arab
& Díaz, 2015), the publication of information on social networks, including Twitter, has
become an input or material for study and analysis in various areas of science. Such as:
text mining, natural processing language, automatic learning, polarity dictionaries based
on the semantic field, behavioral patterns and inflection points in opinion currents,
among others (Baviera, 2016). This has allowed to the scientific, business, academic and
political communities to evaluate a current of opinion on a specific topic (Baviera, 2016)
(González-Lizárraga et al., 2016).
With the data provided by social networks, electoral processes have been analyzed
predicting the results (Roldán-Robles, 2017), and reactions in the political spheres in
Venezuela (Niklander, 2017). Likewise, the extraction of knowledge in social networks
is used in other areas, such as the analysis of images associated with the tweet (Baecchi,
Claudio; Uricchio, Tiberio; Bertini, Marco; Bimbo, 2015). For example, the analysis
of reactions that can cause social issues ranging from the positive end of Valentine’s
Day to the negative end such as the war in Syria, presenting them in emotional graphs
(Perikos, Isidoros; Hatzilygeroudis, 2018); analysis of feelings in people’s opinions on a
specific issue (Inbal Yahav; Shehory, Onn; Schwartz, 2015); identifying opinion leaders
(Yang, Li; Tian, Yaping; Li, Jin; Ma, Jianfeng; Zhang, 2017); as well as aspects or steps
to classify frauds written in the form of alt-facts such as intentionally disseminating
false information on medical issues in Indonesia (Purnomo, Mauridhi Hery; Sumpeno,
Surya; Setiawan, Esther Irawati; Diana Purwitasaria, 2017).
One of the issues of global health interest is abortion or Voluntary Interruption of
Pregnancy (VTP). In Spain, the number of voluntary interruptions of pregnancy stood
at 108690 cases, representing a rate of 11.74 abortions per 1000 women aged 15 to 44
(Montserrat Femenía, 2016), while in Ecuador between 2004 and 2014 a total of 431614
abortions were reported (Ortíz, 2017).
This research aims to know the public opinion about Abortion in Ecuador, based on the
analysis of the contents of tweets sent from Ecuador using the Twitter platform. This
contributes to have a more objective idea about the positions and beliefs of Ecuadorian
citizens, contributing to decision making regarding public health policy. And, considering
that the Ecuadorian National Assembly is currently discussing the decriminalization of
abortion due to rape for all women in Ecuador.
The manuscript is organized as follows: In section 2, the phases applied in this study are
presented: (i) Authentication, (ii) data collection, (iii) data cleaning and processing, (iv)
modeling and analysis, and (v) presentation of results. Section 3 indicates the results
obtained, including the frequency of hashtags for and against abortion, as well as the
comparative study between the decision tree and Naive Bayes classifiers. In section 4,
the discussion of results is carried out comparing with some existing works. Finally,
section 5 presents the main conclusions and future work.
Figure 1 – Conceptual architecture for content analysis on Twitter. Adapted from (Roldán-
Robles, 2017)
and Twitter, being necessary to pass four tokens provided by Twitter, after
accepting the privacy policies.
•• Phase 2 Data Collection:
Collection Dates: August 16th to September 29th, 2018.
Criterion: The total sample size is limited under the criterion of identifying
tweets sent from Ecuador (containing 24 provinces) with specific hashtags and
user accounts specialized in the topic of Abortion.
Using the Streaming API of Twitter, a massive download of tweets filtered by
keywords or usernames was carried out. To limit the territory or country, the
location filter of the stream library obtained from (KlokanTech., 2017), is used,
as indicated by (Sogo, 2016). A JSON file of 1721287 KB in size was obtained,
containing 344149 records or tweets. Table 1 presents the algorithm used for
data collection.
From the file received, the hashtags that are not related to the topic of abortion such as:
greetings, proper names and mentions to sports clubs or social events are removed. The
resulting information was processed under two categories:
•• In favor of abortion (Abortion+)
•• Against abortion (Abortion-)
The processing was done manually, with proper investigation of the origin of each
hashtag and its use. Because of their complexity, since there are no specific rules for the
creation of hashtags, some of them do not only contain correct words within languages,
but also invented words, word mixtures, words united with different connectors, words
with numbers such as abbreviations of dates alluding to nearby events or important
reminders from the collectives for and against abortion.
In some phases of the tweet analysis, additional cleaning actions were carried out as
described in Table 3:
Percentages for and against: The decision tree and Naive Bayes classifiers
are used. For the training of these two algorithms, the same information was
used: a number of ten (10) hashtags in favor and the same amount against, which
represent 30% of the most relevant according to the frequency of appearance.
The next decision in this part of the process was made by exploring the sample
file texts located within the text attribute of the tweet object. In this part of the
training the most common texts for and against abortion should be put, at the
end it is defined to use seven (7) texts for and seven against.
Statistical graphs: They are generated from Python using pyplotlib matplotlib
library version 1.4.3.
•• Analysis of feelings:
Working with Decision Tree allows you to manage not only the hashtag but
also the content of the tweet and combine them. Numerical data is assigned
to the hashtags as well as to the sentences for and against, establishing the
conditions to obtain the results in the output matrix shown in Table 4:
In the case of Naive Bayes, the [Link] script from (García Serrano, 2012),
was taken as a reference, TextBlob [Link] was also installed, and
NaiveBayesClassifier was imported. The data for the training were not numerical,
so it is necessary to give the classifier the learning keys, using a matrix that
receives the data. Each of the data of the matrix has two parameters: hashtag or
phrase, and the second the polarity, being: (i) the position in favor is named pos
and (ii) the position against is named neg.
•• Location: Tweets that have the geo_enable attribute of the user object enabled
are taken as active, while tweets that have been disabled are labeled as missing.
3. Results
Among the main results are the following:
•• The top five of the most used hashtags with reference to abortion can be found
in Table 6:
The hashtag #28s was created in allusion to September 28, an emblematic day for the cause
that defends abortion. Since the V Latin American and Caribbean Feminist Encounter of
1990 held in Argentina (Campaña, 2015), and September 28, 1871 promulgated in Brazil
(“[Link],” 2010), the law of freedom of the wombs was promulgated where the
children who were born of slaves were declared free. The Table 7 presents the results
of the positions for and against abortion using the classifiers: Decision tree and Naive
Bayes. In addition, from the average between the two, it is evident that both differ in
a few percentage points, however, the same overall result is obtained. That is to say,
the position against abortion surpasses the position in favor of abortion, by an average
of 14.7%.
The Table 8 below presents the comparison of the classifiers to check the existence of the
influence of the learning keys within the training stage, which is implicitly included in
the phase 4 (modeling and analysis).
The performance on the classifiers for decision trees is 97.9% and for Naive Bayes it
is 79.1%. The decision tree was 18.8% more accurate than Naïve Bayes. Tables 7 and 8
complete the first analysis of the conceptual architecture in phase 5, showing the results
obtained from Python with the use of the Naive Bayes algorithm and with the Decision
Trees for the positions in favor of abortion and against abortion.
Table 8 – Results of the specific evaluation metrics for the classifiers (weighted average)
It is evident that against-abortion tweets are mostly larger than pro-abortion tweets
with the following exceptions: starting September 17, and their notable peaks are found
on August 24, September 3, and the highest peak was found on September 9. The pro
position begins to rise at the end of the sample. That is to say, as it approaches September
28 and presents a tendency to grow on the highest peak of the position against September
9 of 2018. It is believed that it was, a massive response in networks. Subsequently, On
August 8 of 2018 the legality of abortion is denied in the Senate of Argentina, this issue
had repercussions in Latin America including Ecuador. As well as the 28th of September
where abortion was supported; #28s alludes this atypical value to the commemorative
date, as shown in Figure 2.
The heat maps of the General Abortion in Ecuador, represent in red the classification
against abortion and in blue in favor of abortion, as represented in Figure 3. Note that
red points (against abortion) appear in smaller amounts than blue ones (pro-abortion),
in contrast to Table 7, because many of these tweets have not defined their location.
The Figure 4 presents the word cloud over the accounts of users who posted the most,
users who received the most retweets, and/or who were mentioned the most from other
accounts. This result allows us to observe the influence of these users within the data
taken in the sample.
The “Salvemoslas2vidas” account with a tendency against abortion ranks first, followed
by the “abortolegalya” account in the second box and with a tendency in favor of abortion;
“porlavida2014” ranks third, “sialavida” ranks fourth, these last two organizations
are against abortion. Finally, “28s”, which is a pro-abortion account is in the fifth box,
closing the top five most influential users or accounts.
The figure 5 presents the use of hashtags in a cloud of commonly used words:
4. Discussion
The results of this study are consistent with that presented by (Vila, Dayana; Cisneros,
Saúl; Granda, Pedro; Ortega, Cosme; Posso-Yepez, Miguel; García-Santillan, 2019)
where the decision tree (97.9%) surpassed the Naive Bayes classifier in accuracy (79.1%),
contributing a reliable reference point.
Similarly, there is evidence of the appearance of additional information with importance
and consistency about this social impact: both in the clouds of words of hashtags more
used and more influential users, as in those of causes that can be considered related to
trends. An example of this is the hashtag #niunamenos that promotes the eradication of
femicide, or any abuse of women, which is presented considerably in the study sample,
because by promoting that abortion is a right proper to each woman, this organization
is in favor of abortion. On the other hand, the hashtag #conmishijosnotemetas and
the account of the same name support a cause that largely rejects the teaching of
gender ideology and other related currents as offensive to people’s morals. It also
appears notoriously in the sample, this institution considers abortion as a murder, that
organization has a tendency against abortion.
It is evident that if concrete studies on femicide and gender ideology based on (Niklander,
2017) are required, the use of hashtags #niunamenos and #conmishijosnotemetas,
respectively, should be considered; whereas, for other studies on the subject of abortion,
the specific hashtags suggested are: #salvemoslasdosvidas and #abortolegalya, because
that were the most frequently used in this study.
The main limitation in achieving a greater impact in this research is that for most of the
tweets it was not possible to establish their specific location, which limited the obtaining
of geographical heat maps.
5. Conclusions
•• Abortion as the chosen theme for the development of Conceptual Architecture
is the main contribution of this research, as it is one of the most commented on
in current times, in society in general, as well as by Twitter users in particular,
where what is expressed in Ecuador, supported by the 97.9% precision of the
decision tree (Table 8), represents 40.7% in favor of abortion and 59.3% against
abortion (Table 7). This classifier surpassed that of Naive Bayes which yielded
79.1% accuracy.
•• Content analysis was obtained by evaluating hashtags with their polarization,
and in a general way, sentiment analysis was obtained by using classifiers to
define the polarity of the tweet text content. The results are very similar, this
is because the text of the tweets is usually very related to the hashtags used in
them, except in some cases where the hashtag is used to show opposition within
the text.
•• By obtaining messages and positions on abortion, summarizing 42.65% in
favor and 57.35% against on average (Table 7), it was possible to see how a
conceptual architecture allows an analysis of opinions about abortion using the
Twitter platform.
•• According to the information shown in the geographic heat maps (Figure 3), in
the mountain region there is a greater activity in Twitter, although it is important
to indicate that, in most of the tweets of the sample, the field “location”, was not
active. Therefore, the locations presented in the heat maps do not reflect the
total number of tweets in the sample.
•• As future work, it is recommended to carry out research on the same subject, in
a sample taken in 2019 or in subsequent years, in order to make a comparison
with this work and thus determine if the percentages have changed or if new
trends are set. In addition, new social networks such as Facebook and Instagram
should be considered.
References
Arab, L. E., & Díaz, G. A. (2015). Impacto de las redes sociales e internet en la adolescencia:
aspectos positivos y negativos. Revista Médica Clínica Las Condes, 26(1), 7–13.
[Link]
Baecchi, Claudio; Uricchio, Tiberio; Bertini, Marco; Bimbo, A. Del. (2015). A multimodal
feature learning approach for sentiment analysis of social network multimedia.
Multimed Tools Appl (2016), 19. [Link]
Baviera, T. (2016). Técnicas para el análisis del sentimiento en Twitter : Aprendizaje
Automático Supervisado y SentiStrength. Revista Dígitos 1.3, 1(3), 33–50.
Campaña. (2015). Campaña Nacional por el Derecho al Aborto Legal Seguro y Gratuito.
Retrieved June 29, 2019, from [Link]
septiembre-de-2015-25-anos-declaracion-de-san-bernardo/
Fayyad, U., Piatetsky-Shapiro, G., & Smyth, P. (1996). From Data Mining to Knowledge
Discovery in Databases. AI Magazine, 17(3), 37–37. [Link]
AIMAG.V17I3.1230
García Serrano, A. (2012). INTELIGENCIA ARTIFICIAL Fundamentos,
práctica y aplicaciones (2da Edició). Retrieved from [Link]/pdf/
[Link]
González-Lizárraga, M. G., Becerra-Traver, M. T., & Yanez-Díaz, M. B. (2016).
Cyberactivism: A new form of participation for University Students. Comunicar,
24(46), 47–54. [Link]
Inbal Yahav; Shehory, Onn; Schwartz, and D. (2015). Comments Mining With
TF-IDF: The Inherent Bias and Its Removal. 14. [Link]
TKDE.2018.2840127
KlokanTech. (2017). BoundingBox. Retrieved August 12, 2018, from https://
[Link]/
Montserrat Femenía, A. I. (2016). El aborto provocado en relación a la temática de la
feminidad desde una perspectiva psicoanalítica. 341.
Niklander, S. (2017). Content Analysis on Social Networks: Exploring the #Maduro
Hashtag. 5. [Link]
Ortíz, E. (2017). Redacción Médica. Retrieved June 29, 2019, from [Link]
[Link]/secciones/salud-publica/el-85-de-los-abortos-registrados-en-
el-ecuador-son-de-causas-desconocidas-90319
Perikos, Isidoros; Hatzilygeroudis, I. (2018). A Framework for Analyzing Big Social
Data and Modelling Emotions in Social Media. 5. [Link]
BigDataService.2018.00020
Purnomo, Mauridhi Hery; Sumpeno, Surya; Setiawan, Esther Irawati; Diana
Purwitasaria, C. (2017). Biomedical Engineering Research in the Social Network
Analysis Era: 7. [Link]
Roldán-Robles, C. (2017). ANÁLISIS DE CONTENIDOS DE TWITTER CASO DE
ESTUDIO: ELECCIONES PRIMARIAS DEL PSOE 2017. UNIVERSIDAD
COMPLUTENSE DE MADRID.
Moya Caisa Julio Danilo1, Tapia Vega Liliana Carolina2, Albán Taípe Mayra Susana3,
Rodríguez Bárcenas Gustavo4, Alban Franklin Vinicio5
1
Universidad Técnica de Cotopaxi, 050150, Latacunga, Ecuador.
Pages: 375–385
1. Introducción
Con la aparición de la web 3.0 y el desarrollo de la inteligencia artificial han surgido varias
aplicaciones que permiten el incremento del uso de la tecnología, la automatización de
procesos, la conformación de redes de investigación multidisciplinaria, los sistemas
recomendadores, entre otros. Los sistemas recomendadores cumplen un rol importante
a la hora de brindar sugerencias de distintas áreas del conocimiento relacionadas con la
ciencia, educación, negocios, etc.
Algoritmos de inteligencia artificial fusionados en procesos de ingeniería de software
llevan décadas de uso, como resultado se obtienen sistemas de recomendación que en la
actualidad han empezado a entrar en auge (Franganillo, 2018), como ejemplo se puede
mencionar Amazon para sugerir sus productos, sugerencia de amigos en Facebook,
películas en caso de Netflix, publicidad personalizada con base en el historial de búsqueda
en Google, y en del mundo científico académico la sugerencia de investigadores con base
en su perfil, como es el caso de Research Gate.
Sin embargo, aun cuando los sistemas recomendadores puestos como ejemplo son
en cierta manera gratuitos, para desarrollar un sistema exitoso para este propósito se
requiere de un análisis de requerimientos específicos propios del contexto en cual va
a ser utilizado, los cuales en muchas ocasiones se convierten en proceso complejos de
realizar desde el área de conocimiento, los factores económicos disponibles y el entorno
de aplicación (Del Pino, Salazar, & Cedeño, 2011).
Según Drake (2018) para que un sistema recomendador tenga éxito es necesario
tomar considerar varios aspectos como la usabilidad del sistema y las funcionalidades
del mismo, pero para determinar este último es necesario realizar un exhaustivo
análisis de requerimientos del usuario, siendo esta la parte fundamental del sistema,
debido a que de ignorar estos requerimientos, el sistema tendrá altas posibilidades
de fracasar.
Por otro lado, para el desarrollo de sistemas recomendadores de investigación Enrique
y Foliaco (2014) menciona en su trabajo que previo a la construcción de un sistema
recomendador se debe considerar aspectos como el análisis del contexto, rastreo
bibliográfico y del autor (F. O. Botello, 2013). También, menciona el autor que se puede
utilizar el análisis exploratorio para la determinación de criterios que comúnmente
utilizan los usuarios para la búsqueda que desean realizar.
Por tal razón, se considera importante determinar factores de éxito para el desarrollo
de sistemas que permitan realizar sugerencias en la conformación de grupos de
investigación multidisciplinarios y a través de algoritmos de machine learning predecir
el nivel de influencia positiva o negativa de estos factores identificados como objetivo
principal de la investigación.
El documento se encuentra organizado de la siguiente manera, en el numeral 2 se
encuentra la revisión de la literatura. El numeral 3 presenta el método de desarrollo del
proceso experimental, el numeral 4 muestra los resultados y finalmente se presenta las
conclusiones del trabajo de investigación.
2. Revisión de la Literatura
Uno de los temas más relevantes dentro del ámbito educativo y social es la investigación en
términos generales, ya que es el punto de partida que conlleva a crear y generar temas de
interés para la sociedad, mismos que se enfocan en mostrar diferentes problemáticas y a
la vez dar soluciones que en muchos casos marcan la diferencia y se convierten en puntos
de partida hacia nuevas mejoras en los ámbitos a los que estén enfocados. Castillo (2019)
muestra un análisis del porcentaje de investigaciones que se realizaron en el ámbito de
educación por parte de algunas de las principales universidades ecuatorianas. En el
Ecuador, en los últimos años se han venido implementando diferentes tipos de programas
dirigidos a mejorar los procesos de investigación y producción científica, mediante la
construcción de políticas públicas orientadas a fortalecer los academia y la investigación.
Rivera, Espinosa y Valdés (2017) señalan se pudo conocer como las universidades han
ido creciendo dentro del ámbito investigativo, logrando obtener lugares importantes a
nivel latinoamericano y siendo reconocidos por revistas internacionales.
Por otro lado, con base en el crecimiento del desarrollo de la investigación, también se
requiere de sistemas que permitan dar a conocer al mundo los resultados de los procesos
investigativos presentados a través de artículos científicos, publicaciones de libros,
entre otros. También, es importante establecer mecanismos y estrategias que permita
que los investigadores puedan compartir información relevante a través de redes de
investigación multidisciplinaria (Rivera et al., 2017).
Desde el punto de vista de la ingeniería de software, los requerimientos de usuario son la
parte más importante a tener en cuenta antes de desarrollar un sistema de recomendación,
gran parte de los problemas que se presentan en el desarrollo de sistemas se debe a que
inicialmente no se realiza un análisis detenido de estos requerimientos (Huebe, 2005).
Los requerimientos de usuario son muy importantes para el éxito de un sistema de
la información, esta etapa de la ingeniería de software permite una dinámica de la
obtención de los requerimientos de usuario que cambia constantemente dependiendo
del sistema que se pretende desarrollar. Es por ello, que se propone determinar estos
requerimientos de usuario, de manera que cada factor de éxito se convertirá a futuro en
un requerimiento de usuario.
Por otro lado, a largo de los años han surgido una serie de avances dentro del tema
de inteligencia artificial los cuales han dado paso a la construcción de varios sistemas
informáticos. El uso de estos algoritmos han permitido crear sistemas capaces de clasificar
información por patrones de comportamiento, tal es el caso de Facebook o YouTube.
Los sistemas recomendadores han tenido múltiples aplicaciones desde la aparición del
primer sistema de recomendación por excelencia el cual es Google, mediante el uso de la
inteligencia artificial y la minería de datos cada vez han ido ganando más popularidad,
apareciendo un sin fin de aplicaciones. Ruiz, Jiménez y Gómez (2010) crearon un
sistema recomendador para la aplicación en repositorios de objetos de aprendizaje, que
actualmente está siendo usado en la universidad Compútense de Madrid, para ofrecer
recomendaciones de ejercicios resueltos y no resueltos a los estudiantes. Vera y Ulloa
(2018) realizaron el diseño y desarrollo de un sistema recomendador de contenidos
3. Método
4. Resultados y Discusión
Alfa de Cronbach
Alfa de Cronbach basada en elementos
Alfa de Cronbach N de elementos
estandarizados
0,953 0,986 26
Detalle Factor
La importancia de recomendación de las publicaciones del autor por parte de los demás investigadores
(V31).
Para la selección de factores se utilizó el algoritmo CfsSubsetEval a través del uso del
software Weka, mismo que evalúa el valor de un subconjunto de atributos al considerar
la capacidad de predicción individual de cada característica junto con el grado de
redundancia entre ellos con la finalidad de seleccionar las variables más significativas
(Iyer, S, & Sumbaly, 2015).
c) Predicción
En esta etapa se utilizó el algoritmo de redes neuronales con la finalidad de predecir el
éxito de los factores identificados en el desarrollo de sistemas recomendadores, a través
del uso del software Orange datamining en su versión 3.1.
debe permitir que un usuario lector recomiende una o varias publicaciones y sistema
debe permitir visualizar estadísticas de las publicaciones de los investigadores.
Muestra Pronosticado
Observado Medianamente Totalmente Porcentaje
Relevante
relevante relevante correcto
Entrenamiento Medianamente 1 0 0 100,0%
relevante
Relevante 0 35 0 100,0%
Totalmente relevante 0 0 13 100,0%
Porcentaje global 2,0% 71,4% 26,5% 100,0%
Prueba Medianamente 0 0 0 ,0%
relevante
Relevante 0 8 0 100,0%
Totalmente relevante 0 0 10 100,0%
Porcentaje global ,0% 44,4% 55,6% 100,0%
Variable dependiente: RV20
Red neuronal
Factores de éxito % precisión
La recomendación en equipos de investigadores con base en la autoría o coautoría de 90%
las publicaciones de los investigadores (V18).
La sugerencia a grupos de investigadores con base aen la experiencia profesional (V19). 90%
La importancia de recomendación de las publicaciones del autor por parte de los 100%
demás investigadores (V31).
La importancia de tener las estadisticas de las investigaciones de los investigadores 100%
(V33).
5. Conclusiones
Los resultados del proceso de selección de factores permitieron identificar 4 factores que
podrían ser considerados como exitosos en el desarrollo de sistemas recomendadores
para procesos de investigación, de los cuales el factor importancia de recomendación
de las publicaciones del autor por parte de los demás investigadores y uso de informes
estadísticos de los resultados de investigación fueron considerados como los factores
con mayor influencia.
La aplicación de la red neuronal arrojó un resultado del 99, 60% de predicción del éxito
de los factores identificados, lo que indica que estos factores podrían ser considerados
por los desarrolladores de sistemas en la etapa de análisis de requerimientos de usuario
respecto al desarrollo de sistemas para realizar recomendaciones en procesos de
investigación.
Referencias
Castillo, J. A., & Powell, M. A. (2019). Análisis de la producción científica del Ecuador
e impacto de la colaboración internacional en el periodo 2006-2015. Revista
Española de Documentación Científica, 42(1), 225. [Link]
redc.2019.1.1567
Danilo, A., Ramirez, V., Sistemas, T., & En, R. (2014). Taller : Turismo Sostenible.
Del Pino, J., Salazar, G., & Cedeño, V. (2011). Adaptación de un Recomendador de
Filtro Colaborativo Basado en el Usuario para la Creación de un Recomendador de
Materias de Pregrado Basado en el Historial Académico de los Estudiantes. Revista
Tecnológica ESPOL, 24(2), 29 – 34. Retrieved from [Link]
[Link]/[Link]/tecnologica/article/view/85
Drake, J. M. (2008). Ingeniería Ingeniería Software software Análisis de requisitos y
especificación de una aplicación. 1–36.
Enrique, J., & Foliaco, O. (n.d.). Diseño de un Sistema Recomendador de productos
para centros comerciales.
Enrique, J., & Foliaco, O. (2014). Diseño de un Sistema Recomendador de productos
para centros comerciales.
F. O. Botello, F. F. D. y R. D. L.-C. (2013). Sistema de recomendación para elcomercio
electrónico aplicadoa una tienda de libros. (Mexico: Instituto Politécnico Nacional).
Franganillo, J. (2018). El funware en los sitios de recomendación social: características,
claves e inconvenientes. Anuario ThinkEPI, 12, 242. [Link]
thinkepi.2018.36
Gerling, V. B. (2009). Un sistema inteligentes para asistir la búsqueda personalizada de
objetos de aprendizaje. Universidad Nacional de Rosario, 65. Retrieved from https://
[Link]/download/pdf/[Link]%0Ahttp: //[Link]/scholar?
hl=en&btnG=Search&q=intitle: Un+Sistema+Inteligente+para+Asistir+la+B+?
+usqueda+Personalizada+de+Objetos+de+Aprendizaje#0
González, J., & Peazmiño, M. (2015). Cálculo e interpretación del Alfa de Cronbach para
el caso de validación de la consistencia interna de un cuestionario, con dos posibles
escalas tipo Likert. Revista Publicando, 2(2), 62–77. Retrieved from [Link]
[Link]/publication/272682754_Calculo_e_interpretacion_del_Alfa_
de_Cronbach_para_el_caso_de_validacion_de_la_consistencia_interna_de_
un_cuestionario_con_dos_posibles_escalas_tipo_Likert
Guzmán, J., Torres, I., & Vallejo, S. (2015). Un sistema recomendador móvil de rutinas
de ejercicio basado en el perfil del usuario. 94(2015), 137–149.
Huebe, M. de L. P. (2005). Ingenieria De Requerimientos. 1–71.
Iyer, A., S, J., & Sumbaly, R. (2015). Diagnosis of Diabetes Using Classification Mining
Techniques. International Journal of Data Mining & Knowledge Management
Process, 5(1), 01–14. [Link]
Larrañaga, P., Inza, I., & Moujahid, A. (2015). Redes Neuronales. Researchgate,
19. Retrieved from [Link]
[Link]
Recomendador, S., Usuarios, D., Aciar, S. V, Aciar, G. I., Collazos, C. A., & González, C. S.
(2015). Sistema recomendador de usuarios en base al conocimiento, disponibilidad
y reputación obtenida de interacciones en foros. (July).
Rivera, C., Espinosa, J., & Valdés, Y. (2017). La investigación científica en las
universidades ecuatorianas. Prioridad del sistema educativo vigente. Revista
Cubana de Educación Superior, 2, 113–125. Retrieved from [Link]
pdf/rces/v36n2/[Link]
Ruiz-Iniesta, A., Jiménez-Díaz, G., & Gómez-Albarrán, M. (2010). Personalización en
Recomendadores Basados en Contenido y su Aplicación a Repositorios de Objetos
de Aprendizaje. Revista Iberoamericana de Tecnologias Del Aprendizaje, 5(1),
31–38. Retrieved from [Link]
uploads/[Link]
Sari Villa, O. (2017). Diseño e implementación de un sistema recomendador de
actividades Lúdicas y Culturales para personas de la tercera edad. Retrieved from
[Link]
Vera, P., & Ulloa, M. (2018). Diseño y desarrollo de un sistema recomendador de
contenidos accesibles basados en perfiles de usuarios para ambientes virtuales
y objetos de aprendizaje a partir de metadatos de accesibilidad haciendo uso de
ontologías.
Vicuña Lojano, C. E. (2018). Diseño e implementación de un sistema recomendador
de eventos de interés para personas de la tercera edad mediante geolocalización.
Retrieved from [Link]
[Link]
Andrés Rey Piedrahita1, Laura Milena Cárdenas Ardila2, Andrick Parra Valencia3
1
Universidad Central del Valle del Cauca, Tuluá, Colombia.
2
Universidad de Antioquia, Medellín, Colombia.
3
Universidad Autónoma de Bucaramanga, Bucaramanga, Colombia.
Pages: 386–398
Abstract: This paper reviews the literature on government open data ecosystem
models for the purpose of studying existing models. The review of the models
identified shows that at the moment there is no comprehensive model that provides
understanding of the complexity and dynamics of the OGD programs, this makes it
difficult to formulate adequate policies and strategies to improve the achievement
of benefits expected, such as greater transparency and accountability, and the
creation of innovative citizen-centered businesses and services that stimulate
economic growth.
Keywords: Open Data; Open Government; Open Government Data; Open
Government Data Ecosystem models; Comparison of models.
1. Introducción
La investigación generada alrededor de los programas de Datos Abiertos del Gobierno
(Open Government Data, OGD) está conformando un nuevo campo de investigación
2. Fundamentos
Elemento Descripción
Recursos Son activos valiosos del ecosistema. Toman la forma de algún producto, posesión o
capacidad producida, proporcionada o consumida por los actores. (Oliveira, 2018) .
Roles Corresponde a una función (actividad o deber) que realiza un actor en el ecosistema de
datos. (Oliveira, 2018) .
Actores Son entidades autónomas, con identidad propia y existencia distinta del
ecosistema, que tienen capacidad para cumplir con roles en el ecosistema de datos.
Su participación se da a partir de intereses que los motivan, poseen diferentes
expectativas y usualmente se comprometen con el ecosistema y este les brinda
incentivos para activar su participación (Oliveira, 2018) .
Relaciones Son interacciones que surgen entre los actores del ecosistema de datos, ya sea por el
papel que desempeñan los actores o a partir de algún interés común. Pueden seguir
modelos de negocio y el intercambio de recursos se da mediante transacciones;
diversos aspectos del contexto (económicos, políticos, culturales, tecnológicos, etc)
hacen que las relaciones varíen entre ecosistemas de datos (Oliveira, 2018) .
Fuente: elaborado a partir de (Oliveira, 2018).
3. Metodología
En este estudio se utiliza una estrategia de investigación secuencial basada en la
combinación de métodos de investigación cualitativos y cuantitativos presentada en la
Figura 1 (Creswell, 2017).
4. Resultados y discusión
En la primera etapa para ubicar publicaciones que traten el tema de modelos para
ecosistemas OGD se realizó una búsqueda mediante palabras clave en la base de datos
Scopus. La cadena de búsqueda utilizada fue (“Open Government Data” OR “Open
Data”) AND (ecosystem OR models) definiendo el titulo como lugar de búsqueda en los
trabajos. De esta búsqueda se obtienen un total de 161 documentos, con los cuales se
conforma un conjunto de datos que contiene la información de citación de cada artículo
y de los trabajos citados1. Al analizar de forma cuantitativa el conjunto de datos con
la información de referencia de posibles publicaciones sobre modelos de ecosistemas
OGD utilizando la métrica de acoplamiento bibliográfico de documentos y visualizando
los resultados en una red o mapa de conocimiento mediante el software VOSviewer, se
pueden identificar 30 trabajos que son los más destacados al ser referenciados desde
otras publicaciones con mínimo 8 referencias.
desarrollado que permita experimentar para ganar mayor comprensión acerca del
comportamiento del ecosistema OGD. También, en lo que respecta a los beneficios no
específica ninguno solo se plantea que la apertura de datos genera valor público.
El segundo modelo es propuesto por (Lee, 2014) para la apertura de datos del gobierno
en Irlanda. Este modelo conceptual de ecosistema de datos abiertos presenta una
estructura simple, pero aborda la naturaleza multifacética inherente a los programas de
datos abiertos, por ello cubre aspectos técnicos, sociales, legales, políticos, operacionales
y económicos. La debilidad más importante de este modelo es que carece de una mirada
completa como ecosistema dado que no establece relaciones entre componentes que
definan la estructura del ecosistema; que podría exponer la existencia de ciclos y
relaciones de realimentación, aspecto clave para la formulación y evaluación de políticas.
Dentro de lo positivo del modelo de (Lee, 2014) se cuenta que el modelo, básicamente,
propone once elementos importantes que debe contener un ecosistema de datos los
cuales son descritos más como funcionalidades o actividades a realizar, estos son: (1)
auditar datos, (2) seleccionar datos, (3) liberar datos de direcciones y mapas, (4) cuidar
privacidad de los datos, (5) asignar licencias a datos, (6) publicar datos, (7) descubrir
datos, (8) apoyar organismos públicos, (9) involucrar usuarios de datos, (10) reutilizar
y crear valor económico, y (11) evaluar. Por otro lado, dentro de los elementos se
especifican algunos recursos del ecosistema. El principal recurso reconocido son los
datos y se señala la necesidad de publicar datos relevantes (por ejemplo, referentes a
direcciones y mapas) de calidad. Otros recursos mencionados son los Portales de Datos
Abiertos (con manejo de URL para apuntar a los datos) y las API para facilitar el acceso
a los desarrolladores. En último lugar, para los beneficios el modelo plantea la creación
beneficios económicos, pero no establece elementos y relaciones específicas sobre cómo
se pueden lograr.
El tercer modelo propuesto por (Zuiderwijk, 2014) trata los elementos que resultan
esenciales en los ecosistemas de datos abiertos. Para este modelo conceptual es de
resaltar que define veinte elementos esenciales de los ecosistemas de datos abiertos,
los cuales se identifican a partir de la revisión de literatura relevante sobre el tema y
aplicando la técnica de escenarios (utilizada en el desarrollo de sistemas interactivos).
Estas funciones identificadas del ecosistema de datos abiertos de (Zuiderwijk, 2014) se
distribuyen en dos niveles, un primer nivel para la producción de datos y un segundo
nivel para el uso de datos. En el primer nivel se tienen las funciones (1) crear o recolectar
datos, (2) almacenar datos, (3) depurar conjunto de datos, (4) publicar conjunto de datos
en internet, (5) satisfacer requerimiento de datos, (6) discutir sobre conjunto de datos y
aprendizajes, (7) analizar uso de conjuntos de datos; y en el nivel de uso, (8) buscar datos,
(9) registrarse, (10) seleccionar lenguaje y traducir metadatos, (11) buscar licencia de
datos, (12) ver datos, (13) descargar datos, (14) tratar datos, limpiar, analizar, combinar,
enriquecer y enlazar datos, (15) publicar datos tratados, (16) solicitar un cierto conjunto de
datos, (17) usar tutoriales sobre la utilización de datos, (18) visualizar datos, (19) discutir
sobre conjunto de datos y aprendizajes, y (20) valorar aspectos de calidad de los datos.
Entre las debilidades más importante del modelo de (Zuiderwijk, 2014) se tienen en
las relaciones, dado que solo define de forma general una relación bidireccional entre
el nivel de producción de datos y el nivel de uso de datos, y de una forma más puntual
relaciones directas entre las funciones (16) solicitar un cierto conjunto de datos y (5)
satisfacer requerimiento de datos, y (6) -(19) que plantean discutir sobre conjuntos de
datos y aprendizajes. También, por el lado de los beneficios al no especificar ninguno en
particular y solo asumir que la apertura de datos genera algún tipo de beneficio ya sea
económico o social.
El cuarto modelo es propuesto por (Dawes, 2016) para ayudar en la planificación y diseño
de programas OGD. Este modelo conceptual de ecosistema de datos abiertos es uno de
los más sobresalientes. Para la elaboración del modelo se utilizó la teoría de sistemas
sociotécnicos, y se revisó la literatura científica disponible sobre el tema, estudiando
también la apertura de datos de dos ciudades Nueva York (USA) y San Petersburgo
(Rusia). Algo a resaltar del modelo es que abarca todos los sectores del ecosistema y
define nueve elementos clave para los programas OGD: (1) la influencia global y local
por la apertura, (2) la motivación para el desarrollo OGD, (3) las políticas y estrategias
OGD, (4) la publicación y uso de datos, (5) los productos/servicios generados, (6) la
comunicación y realimentación entre productores de datos, innovadores y usuarios
(internos y externos), (7) los beneficios potenciales, (8) las características de la
comunidad que utiliza los datos y (9) la movilización en favor de la apertura.
Otro de los aspectos más interesantes del modelo de (Dawes, 2016) es que define varias
relaciones de influencia entre los diferentes elementos estableciendo una estructura
bastante completa del ecosistema OGD a un alto nivel de agregación, donde se observan
varios ciclos de realimentación claves. En la descripción de este modelo se identifican
varios actores como son los productores de datos, los innovadores y usuarios (internos
y externos). En cuanto a los recursos se mencionan las tecnologías y capacidades del
gobierno, los datos abiertos, los productos y servicios de datos, la información de
realimentación, las capacidades para el uso de los datos abiertos, la motivación que
impulsa el desarrollo OGD y el marco normativo formulado para la apertura.
Además, dentro de las funciones que pueden ser identificadas en el modelo de (Dawes,
2016) se tienen: (1) formular políticas y estrategias para la apertura de datos, (2) asignar
recursos, (3) gestionar, (4) monitorear desarrollo programas, (5) publicar datos, (6)
solicitar nuevos conjuntos de datos, (7) brindar realimentación, (8) descargar datos, (9)
desarrollar aplicaciones, (10) utilizar datos y aplicaciones, (11) crear beneficios y (12)
solicitar mayor apertura. En último lugar, dentro de las debilidades más sobresalientes
de este modelo se tiene en que no define de forma precisa las diferentes funcionalidades
del ecosistema OGD (de la descripción del modelo se pueden identificar algunas
importantes, pero otras quedan pendientes). De forma similar, se indica que la apertura
de datos crea beneficios económicos y sociales, pero no establecen elementos y relaciones
específicas sobre cómo se puede lograr.
Un quinto modelo que guarda similitud con el anterior es propuesto (Reggi, 2016)
enfocándose en comprender como crear beneficios sociales en las iniciativas de datos
abiertos. Los modelos anteriores por lo general se han enfocado en el objetivo de la
creación de valor económico prestando poca atención a la creación de beneficios sociales
como la transparencia, participación ciudadana y la rendición de cuentas del gobierno.
Los autores realizan un estudio de caso exploratorio para la iniciativa OpenCoesione en
Italia que permite formular un modelo conceptual preliminar integrado de ecosistema
de datos abiertos que comprende dos ciclos de influencia interrelacionados que surgen
de la publicación de OGD.
En el modelo de (Reggi, 2016) un ciclo aborda el potencial de innovación de OGD, el otro
aborda la forma en que OGD podría apoyar la transparencia y los valores democráticos
de participación y responsabilidad. Dentro de los aportes realizados al modelo
original de (Dawes, 2016) se tienen: para los recursos, (1) la colección de información
de realimentación sobre resultados de las políticas del gobierno brindada por los
ciudadanos y (2) la información que resulta al analizar dichos comentarios; en cuanto
a los actores, uno nuevo denominado formulador de políticas; en los roles 3 nuevas
funciones requeridas para apoyar la creación de beneficios sociales, (1) coleccionar
información de realimentación sobre resultados de las políticas del gobierno, (2)
analizar información brindada por los ciudadanos, y (3) formular políticas atendiendo
opiniones de los ciudadanos.
Lo más importante a resaltar del modelo de (Reggi, 2016) es como se mencionó que
brinda atención a la creación de beneficios sociales indicando elementos y relaciones
clave al respecto. Por otro lado, dentro de las debilidades se tiene que el modelo constituye
un primer acercamiento que plantea de forma general el camino hacia el logro de este
tipo de beneficios, pero se necesita modelar con mayor detalle cómo se puede lograr
específicamente cada uno de los beneficios sociales.
El último modelo a describir es propuesto por (Najafabadi, 2017). Se trata de un modelo
de simulación para ecosistema de datos abiertos que fue formulado al llevar a cabo un
estudio de caso para la apertura de datos del gobierno en la ciudad de Edmonton. En
su elaboración se utilizó la técnica de Dinámica de Sistemas que resulta muy adecuada
para estudiar sistemas sociotécnicos interdependientes como los que conforman los
ecosistemas OGD. Dentro de los aspectos positivos a resaltar se tiene que el modelo
de simulación de ecosistema OGD reproduce el comportamiento observado en
las iniciativas de apertura de datos de los gobiernos, las cuales en general exhiben
problemas se sostenibilidad (reportados de forma recurrente en la literatura). Dentro de
las limitaciones de este modelo se tiene que no es completo, es decir no incluye todos los
elementos y relaciones requeridas para representar un ecosistema real que debe estar
dotado con mecanismos básicos de realimentación que representen la colaboración
existente entre diferentes partes presentes en el ecosistema.
La estructura del modelo de ecosistema OGD de (Najafabadi, 2017) está conformada por
diferentes relaciones y ciclos de realimentación en tres sectores gobierno, desarrolladores
y sociedad. Se identifican como recursos del ecosistema de datos abiertos, los datos, datos
abiertos del gobierno, capacidad OGD, experiencia OGD, aplicaciones desarrolladas y
capacidad de desarrollo aplicaciones OGD. En lo que respecta a los actores se especifican
de forma general encontrando tres tipos gobierno, desarrolladores y sociedad. Y en lo
que respecta a los procesos se plantean siete así: sector gobierno, (1) generación de datos
gubernamentales, (2) publicación de conjuntos de datos gubernamentales, (3) desarrollo
capacidad OGD; sector desarrollador, (4) desarrollo de aplicaciones, (5) desarrollo
5. Conclusiones
En este trabajo se revisó la literatura formulada para modelos de ecosistemas OGD con
el propósito de estudiar los modelos existentes que presentan conocimiento sobre el
tema, pero de forma fragmentada. Para realizar esta labor se planteó una estrategia
de investigación secuencial basada en la combinación de métodos de investigación
cualitativos y cuantitativos (Creswell, 2017), que permitieron llegar a identificar
fácilmente seis modelos relevantes propuestos en la literatura que presentan lo que
puede considerarse un modelo completo de ecosistemas OGD. Al revisar y estudiar
los modelos identificados se encontró que cada modelo brinda una forma de ver el
ecosistema, y presenta fortalezas y debilidades al describir alguno de los elementos que
conforman el ecosistema (recursos, actores, roles y relaciones) o su estructura. De igual
forma, se encontró que al momento no se dispone de un modelo integral que brinde
comprensión de la complejidad y la dinámica que presentan los programas OGD, esto
dificulta la formulación de políticas y estrategias que resulten adecuadas para mejorar el
logro de los beneficios esperados con la apertura del gobierno.
Dentro de las limitaciones del estudio se tiene que solo se incluyeron principalmente
las publicaciones sobre modelos de ecosistemas OGD que se encuentran en Scopus por
lo cual pueden existir algunos modelos publicados útiles que no hayan sido incluidos.
El trabajo futuro podría abordar la formulación de un modelo conceptual más integral
de ecosistemas OGD que sea elaborado a partir de una revisión que abarque diferentes
bases de datos y recoja los aportes más valiosos de los diferentes modelos existentes. De
igual, forma se debe trabajar en formular nuevos modelos avanzando de lo cualitativo
Referencias
Creswell, J. W., & Creswell, J. D. (2017). Research design: Qualitative, quantitative, and
mixed methods approaches. Sage publications.
Dawes, S S, Vidiasova, L., & Parkhimovich, O. (2016). Planning and designing
opengovernment data programs: An ecosystem approach. Government Information
Quarterly, 33(1), 15–27. [Link]
Helbig, N., Cresswell, A. M., Burke, G. B., & Luna-reyes, L. (2012). The Dynamics of
Opening Government Data. Center for Technology in Government.
Lee, D. (2014). Building an Open Data ecosystem - An Irish experience. ACM
International Conference Proceeding Series, 2014-Janua, 351–360. [Link]
org/10.1145/2691195.2691258
Najafabadi, M., & Luna-Reyes, L. (2017). Open Government Data Ecosystems: A
ClosedLoop Perspective. Proceedings of the 50th Hawaii International Conference
on System Science (HICSS-50), 2711–2720. [Link]
net/10125/41483
Oliveira, M. I. S., Barros Lima, G. de F., & Farias Lóscio, B. (2019). Investigations into
Data Ecosystems: a systematic mapping study. In Knowledge and Information
Systems. 1–42. [Link]
Oliveira, M. I. S., & Lóscio, B. F. (2018). What is a data ecosystem? Proceedings of the 19th
Annual International Conference on Digital Government Research: Governance in
the Data Age, 74.
Reggi, L., & Dawes, S. (2016). Open Government Data Ecosystems: Linking Transparency
for Innovation with Transparency for Participation and Accountability. International
Conference on Electronic Government and the Information Systems Perspective,
74–86.
Sanaei, M., Policy, T., Taslimi, M. S., Faculty, M., Abdolhoseinzadeh, M., Tabatabaei,
A., & Khani, M. H. (2017). A Study and Analysis of the Open Government Data
Ecosystem Models.
Sawyer, S., & Jarrahi, M. H. (2014). Sociotechnical Approaches to the Study of
Information Systems.
Zuiderwijk, Anneke, Janssen, M., & Davis, C. (2014). Innovation with open data:
Essential elements of open data ecosystems. Information Polity, 19(1, 2), 17–33
1
Facultad de Ingeniería en Ciencias Aplicadas, Universidad Técnica del Norte, 100150, Ibarra, Ecuador.
2
Facultad de Ingeniería en Ciencias Agropecuarias y Ambientales, Universidad Técnica del Norte, 100150,
Ibarra, Ecuador.
3
Facultad de Educación Ciencia y Tecnología, Universidad Técnica del Norte, 100150, Ibarra, Ecuador.
Pages: 399–412
Abstract: The teaching evaluation tests, that have been applied since September
2015 at Técnica del Norte University, have incorporated questions regarding the
use of ICT in teaching practice. However, the questions related to this activity
were not categorized with a sub-criterion in the original evaluation structure, so
a new factorial structure was designed, which allowed us to extract the ICT use
scores for each academic period, whose validity and reliability was demonstrated
by Confirmatory Factor Analysis. The average values of this new component were
organized in a time series, through which a neural network forecast NNF for the
next academic periods scores was made using multilayer perceptrons MLP. The
results reflect a growing trend in the use and incorporation of ICTs in teaching
practice and ratify this trend for the upcoming periods.
Keywords: teacher evaluation; factorial confirmatory analysis; neuronal network
forecast.
1. Introducción
En consecuencia, a los estudios previos realizados en (Jácome et al., 2016) donde se
presentó el proceso de implementación de un Sistema Integrado de Información (SIIU)
que se efectuó en la Universidad Técnica del Norte Ibarra-Ecuador. Dicho instrumento
de evaluación se ha venido aplicando para cada docente durante los últimos siete
periodos académicos y está integrada por los componentes: autoevaluación (realizada
por el mismo docente), coevaluación de pares (realizada por un par ciego de docentes
evaluadores), coevaluación de directivos (realizada por el directivo con cargo
inmediato superior al evaluado) y heteroevaluación (realizada por los estudiantes).
De los componentes antes mencionados, es de especial importancia el instrumento
de heteroevaluación realizado por los estudiantes a quienes el docente imparte sus
cátedras para cada periodo académico, debido a que constituye una gran base de datos
ya que la universidad cuenta con más de 10 000 estudiantes entre sus programas de
grado y postgrado.
Es así que como caso de estudio se tomó a la Facultad de Ciencias Agropecuarias y
Ambientales FICAYA, donde cada base de datos para cada periodo académico supera las
7000 observaciones debido a que cada estudiante debe evaluar a todos los docentes que
le imparten cátedra en cada periodo académico.
La implementación del instrumento de evaluación en la UTN se realizó a partir del
periodo septiembre 2015 – febrero 2016 debido a las normativas vigentes (UTN,
2015) y la estructura factorial del instrumento de evaluación, así como las preguntas
que constituyen al mismo se han venido modificando acorde con las necesidades de la
institución y la reglamentación vigente.
Desde su implementación el instrumento de evaluación se creó a partir de una estructura
factorial que es resultado de los criterios de evaluación que determina la normativa
vigente, los cuales se dividen en subcriterios que son los factores de la estructura simple
que permite cuantificar el desempeño de cada docente. Por los criterios y subcriterios
que constituyen la estructura factorial a partir de la que se generaron los ítems del
cuestionario de evaluación docente para el periodo septiembre 2017 – febrero 2018,
como se muestran en la tabla1.
Según (Kourenzes el al., 2014) y (Ord, Fildes y Kourenzes, 2017), las redes neuronales como
metodología de pronóstico poseen poderosas cualidades de aproximación y modelado
autoadaptativo a diferentes tipos de datos, le que les otorga flexibilidad y capacidad de
adaptarse a series temporales de tipo lineal y no lineal. Adicionalmente (Kourenzes el al.,
2014) demostró que combinando modelos ajustados en datos muestreados a diferentes
frecuencias se puede alcanzar mayor precisión de pronóstico en pronósticos de corto,
mediano y largo plazo y se encontró pequeñas diferencias entre el empleo de la media
o la mediana para el pronóstico, así como se expone las ventajas de la combinación
de diferentes modelos para mejorar la precisión y variabilidad de error, sin embargo
una metodología para combinarlos efectivamente no ha sido determinada. En (Crone
y Kourentzes, 2010), se propone una metodología para la especificación automática de
la red neuronal por medio de la variación de los patrones en los datos y frecuencias de
tiempo, además se propone un filtro neuronal iterativo que por medio de envoltorios
crea modelos candidatos para un determinado número de capas ocultas, nodos ocultos
y funciones de activación. Esta metodología automática de modelado MLP demostró
sus capacidades en la competencia de pronóstico ESTP 2008 alcanzando la segunda
posición basada en los bajos resultados de error medio cuadrado MSE obtenidos en
sus predicciones frente a diversas bases de datos, demostrando que una metodología
conducida de manera netamente automática no requiere de la intervención humana
de un experto para especificar su estructura y ejecutarse correctamente. En (Herrera
et al. 2019) se empleó una metodología de pronóstico por redes neuronales multicapa
MLP para ejecutar el pronóstico de demanda de agua embotellada para un pequeño
manufacturador de agua embotellada, donde se verificó inicialmente la descomposición
multiplicativa de la serie temporal para analizar su tendencia, aleatoriedad y
estacionalidad. Posteriormente, se propuso un modelo de pronóstico aplicando una
selección automática de la estructura de la red neuronal. Luego se diseñó una estructura
multicapa mejorada en función de varias etapas experimentales de adición de neuronas
en las capas ocultas del MLP, y finalmente se compararon los resultados obtenidos con
las MLP propuestas y los métodos clásicos de pronóstico, mostrando una considerable
reducción del MSE.
2. Materiales y Métodos
Como se detalló previamente la evaluación del desempeño de los docentes en la Facultad
de Ingeniería en Ciencias Agropecuarias y Ambientales en la Universidad técnica del
norte se ha venido desarrollando una vez por semestre desde el segundo periodo
académico del año 2015. Sin embargo, el instrumento de evaluación con sus preguntas
y componentes ha venido modificándose acorde con la reglamentación vigente y las
necesidades de la institución.
De esta manera las preguntas, así como su estructura factorial ha sufrido diferentes
modificaciones y en el presente trabajo se desea indagar sobre la evolución del uso de
las TIC en el transcurso del tiempo. A demás, teniendo en cuenta que en ninguno de
los periodos se dispuso de un criterio o subcriterio en la estructura factorial encargado
exclusivamente de cuantificar un puntaje referente al uso de las TIC, y se tuvieron
Figura 2 – Histograma y QQ-Plot de los puntajes estandarizados para cada pregunta obtenidos
por regresión lineal a partir de valores aleatorios
Figura 3 – Scatter plot de los puntajes estandarizados de cada pregunta respecto a los residuos
ajustados para cada observación
Figura 5 – Ejemplo de índices de bondad de ajuste para el periodo septiembre 2017 – febrero 2018
El índice de ajuste no normado NNFI (Non Normed Fit Index) así como el índice de
Tucker y Lewis TLI (Tucker-Lewis Index) alcanzaron un valor de 0.921 lo que entra en el
rango de aceptable, el índice comparativo de ajuste CFI (Comparative Fit Index) alcanzó
un valor de 0.42 que está en el rango aceptable bordeando el límite de excelente. En
cuanto a los estadísticos residuales de ajuste se obtuvo un RMSEA (Root Mean Square
Error of Aproximation) de 0.029 y un SRMR de 0.024 valores que se encuentran por
debajo de 0.06 lo que los posiciona en el rango de excelente. De esta manera ante los
índices obtenidos se puede concluir que no existe indicios de invalidez en la estructura
factorial y su fiabilidad queda demostrada.
Tabla 2 – Puntajes promedio del desempeño de los docentes en el componente TIC para cada
periodo
Los datos obtenidos para el componente referente al uso de las TIC en la práctica
docente muestran valores en general elevados en la puntuación obtenida permitiendo
entender en primera instancia un amplio uso y aceptación de las TIC en la práctica
docente cotidiana. Sin embargo, como se observa en la figura 6 el comportamiento
de los datos en estos primeros siete periodos de evaluación no es lineal por lo que no
es sencillo inferir directamente su tendencia o valores esperados para los próximos
periodos mediante el uso de métodos de pronóstico estadísticos clásicos. Es por esto
que como siguiente etapa de análisis se realizó un pronóstico para los próximos dos
periodos, que permitirá tener un criterio más sólido respecto a la evolución de esta
variable en el tiempo. Como metodología de pronóstico se seleccionó un pronóstico por
redes neuronales multicapa por encima de métodos estadísticos clásicos como ARIMA y
suavizamiento exponencial (Crone y Kourentzes, 2010), (Lorente et al., 2019), debido a
su buen desempeño y robustez utilizando variables de entrada cuantitativas continuas,
además de su capacidad de adaptación a patrones de series temporales determinísticas,
estocásticas, de simple o múltiple estacionalidad, tendencias, ciclos, entre otros, en
general las redes neuronales son modelos no lineales flexibles que tienen importantes
propiedades para aplicaciones de pronóstico y son capaces de encajar en casos lineales
y no lineales de diferentes formas (Kourentzes, 2014). A continuación, en la figura 6 se
muestra la serie temporal de los puntajes obtenidos en la puntación en cada semestre,
del componente TIC desde mediados del año 2015 hasta mediados del año 2018. Los
cuales constituyen la base de datos o variable de entrada cuantitativa continua, a partir
de la cual se realiza el modelo de pronóstico.
Figura 6 – Serie temporal de los puntajes promedio obtenidos para el componente uso de las TIC
obtenidos a partir de la heteroevaluación docente
Como se puede visualizar en la figura 7, la serie temporal tiene una tendencia creciente
que inicia desde el primer periodo del 2016 y posee una estacionalidad que se repite para
cada año iniciando desde el segundo periodo de 2015.
3. Resultados y discusión
En la tabla 2 se muestran las pruebas y modificaciones experimentales efectuadas en las
capas ocultas de la red neuronal multicapa se efectúan añadiendo neuronas en la capa
1 hasta el punto donde la reducción del MSE deja de ser considerable, en ese momento
se avanza a modificar la capa 2 añadiendo neuronas y finalmente se procede con la capa
3. Cabe recalcar que la adición de neuronas mejora la precisión de la MLP pero provoca
mayor costo computacional y tiempo de ejecución por lo que se procede hasta que la
disminución del MSE deja de ser considerable, como se muestra en la tabla 3.
Capa oculta 1 Capa oculta 2 Capa oculta 3
Figura 9 – Estructura del perceptrón multicapa MLP reentrenado empleado para el pronóstico
Figura 10 – Serie temporal obtenida para el uso de las TIC incorporado el pronóstico para los
periodos marzo 2019 - agosto 2019 y septiembre 2019 – febrero 2020
Finalmente, los valores del pronóstico correspondientes a los puntajes en el uso de las
TIC por parte de los docentes y sus correspondientes porcentajes se detallan en la tabla 5.
Tabla 5 – Pronóstico de puntajes promedio del desempeño de los docentes en el componente TIC
para los próximos periodos académicos
3. Conclusiones
La construcción de una estructura factorial permite reducir la dimensionalidad de un
constructo ya sea en componentes principales PCA o factores AFE dependiendo del caso.
En el caso del instrumento de evaluación docente de la UTN se aplicó una estructura de
factores ya que a partir de estos se diseñan las preguntas que compondrán al constructo.
Sin embargo, al disponer de las bases de datos con las respuestas completas de cada una
de las más de 7000 encuestas obtenidas en cada periodo se pueden proponer nuevas
estructuras factoriales que permitan extraer nuevos componentes que sean de interés en
la investigación, o incluso sugerir modificaciones para que el constructo existente vaya
mejorando, lo que se puede verificar a través de sus fit índices.
En este caso de estudio se diseñaron nuevas estructuras factoriales para cada periodo
que permitieron emplear un nuevo constructo que incorpore el componente de las TIC,
demostrando que esto no afecta la validez ni la fiabilidad del instrumento, y permitiendo
extraer los puntajes para el uso de las TIC en cada periodo.
Una vez obtenidas las puntuaciones promedio de los promedios de las puntuaciones de
los docentes de la FICAYA en el uso de las TIC, se creó una serie temporal que, mediante
su descomposición multiplicativa, permitió analizar su estacionalidad, aleatoriedad y
tendencia. El objetivo principal de la presente investigación fue verificar la tendencia de
la puntuación de uso de las TIC que los docentes obtuvieron en el transcurso del tiempo
para las evaluaciones realizadas, notándose una tendencia creciente que se ha ratificado
incluso mediante un pronóstico por redes neuronales multicapa de los puntajes que se
esperan para los próximos dos periodos donde se obtuvieron valores de 93.82 y 95.34
respectivamente con un MSE de o.0001 lo que permite inferir que la tendencia de
crecimiento de este puntaje se mantendrá en los próximos periodos.
Finalmente, se puede concluir que la implementación y uso de las TIC en la práctica
docente en la UTN ha mejorado y mantiene su tendencia creciente guardando estrecha
relación con la implementación del sistema de evaluación docente, ya que en la serie
temporal inicialmente se presentaba una tendencia decreciente que pasó a convertirse
en creciente a partir de la implementación de dicho sistema.
Referencias
A. Jácome, J. Caraguay y J. García, «Portafolio electrónico integrado, gestor de evidencias
para cumplimiento de indicadores de calidad,» de Sexta Conferencia de Directores
de Tecnología de Información, TICAL2016, Buenos Aires, 2016.
U. T. d. Norte, «Reglamento de evaluación integral de desempeño del personal académico
de la UTN,» Ibarra, 2015.
M. Toland y R. De Ayala, «A MULTILEVEL FACTOR ANALYSIS OF STUDENTS’
EVALUATIONS OF TEACHING,» Educational and Psychological Measurement,
vol. 65, nº 2, pp. 272 - 296, 2005.
A. Zambrano y E. Gutiérrez, «Análisis multivariado de la evaluación docente estudiantil.
Un caso de estudio,» Comunicaciones en Estadística, vol. 11, nº 1, pp. 129 - 150,
2018.
1
Universidad Técnica de Cotopaxi,050150, Latacunga, Ecuador
Pages: 413–424
1. Introducción
Los cambios económicos en los sectores de la producción de bienes disminuyen su
prevalencia en relación al sector de servicios, dado que su expansión basada en el
conocimiento demandan de una mayor cualificación académica y profesional (Drucker,
2002), siendo éste uno de los factores clave en el amplio crecimiento de la educación
superior en el mundo y particularmente en América Latina, en el que se registra un
crecimiento importante de la matrícula en la educación terciaria. Este crecimiento
de matrícula también genera una serie de dificultades y limitaciones al interior de
las Instituciones de Educación Superior (IES). Siendo la permanencia o retención
estudiantil un fenómeno presente en las IES, que ha tenido gran interés de estudio y que
ha sido considerado como un fenómeno multicausal en el que se desenvuelven una serie
de factores personales e institucionales (Bethencourt, J.T., Cabrera, L. Hernández, J.A.,
Álvarez, P., & González, M, 2008).
La permanencia estudiantil universitaria es una problemática compleja que se deriva de
un conjunto de factores cuyo origen es variado. Hasta el momento, los estudios sobre
tal problemática dan cuenta de varios modelos predictivos con variables que podrían
interrelacionarse, como los modelos de Spady (1970), Astin (1984), Ethington (1990),
Pascarella y Terenzini (1991), Tinto (1975, 1993, 2014). Siendo el modelo de Vicent Tinto
el de mayor aceptación alcanzada en la comunidad académica y a partir del cual varios
estudios se han realizado. En general, el Modelo de Tinto sugiere que la permanencia
de un estudiante en la institución educativa está mediada por el grado de integración
académica y social alcanzado con sus pares y con la institución. En otras palabras, Tinto
propone que en dependencia del tejido social y académico que el estudiante haya logrado
con su entorno y por tanto con los agentes institucionales como profesores, alumnos,
actividades extracurriculares, éste definirá su permanencia o no en la institución.
La retención estudiantil universitaria cobra importancia en el contexto de educación
superior, debido a la necesidad de las instituciones y los alumnos de terminar con
éxito los programas de educación terciarios en el tiempo oficial de estudios (Báez,
2011). Sin embargo, a pesar de que en la literatura existe diversas investigaciones para
tratar de solucionar el problema de la deserción, existen limitadas investigaciones que
indaguen procesos de retención basados en vivencias de los estudiantes que son los
actores principales (Báez, 2009). Así como también se puede señalar que al igual que
en la deserción estudiantil universitaria no existe un consenso en la literatura respecto
a la definición de la retención y su manera de medirla (canales, 2009). Por esta razón
se considera importante analizar el nivel de impacto de las factores identificados en la
retención de los estudiantes universitarios a través de un caso de estudia aplicado a 288
estudiantes de una universidad pública en el Ecuador, con la finalidad de obtener una
herramienta de ayuda que permita a los administradores de las universidades establecer
estrategias y políticas que permitan el incremento de las tasas de retención universitaria.
El documento se encuentra organizado en cuatro secciones, la sección 2 muestra
el método aplicado para el proceso experimental de la investigación, en la sección 3
se presenta los resultados y finalmente en la sección 4 se presentan las conclusiones
del estudio.
2. Metodología de Investigación
En esta etapa se presenta el método utilizado para el desarrollo del proceso experimental
de la investigación, que consta de:
a. Conjunto de datos a través de una encuesta aplicada a estudiantes universitarios.
b. Analítica descriptiva de la población
c. Modelado de los datos a través de la técnica regresión lineal mediante mínimos
cuadrados ordinarios.
3. Resultados y Discusión
En esta etapa se presenta los resultados del proceso de investigación, el cual consta de
las siguientes etapas:
Cod Factor
V26 Nivel de satisfacción con la educación universitaria recibida
V29 Experiencia académica adquirida en la educación media
V36 Actitud del docente con el estudiante
V41 Nivel de integración social con el grupo de estudiantes
V43 Satisfacción con mecanismos de motivación estudiantil
V49 Actitud de seguridad respecto al grupo
V51 Pertinencia con la universidad
Hurtado (2016) menciona que el método de mínimos cuadrados se aplica para ajustar
rectas a una serie de datos presentados como punto en el plano. En la tabla 3 se presenta
el resultado del proceso de estimación de las variables. Se utilizó el factor rendimiento
académico (V30) como variable dependiente, mientras que los factores satisfacción
con la educación universitaria recibida (V26), experiencia académica adquirida en
la educación media (V29), actitud del docente con el estudiante (V36), integración
social (V41), satisfacción con mecanismos de motivación estudiantil (V43), actitud de
seguridad respecto al grupo de compañeros (V49), pertinencia con la universidad (V51)
corresponden a las variables independientes.
Supuesto de Heterocedasticidad
En esta etapa del procesamiento de datos se aplica el Test de Breusch Pagan Godfrey, que
permite determinar si los datos son homogéneos a través de determinar la regresión de
los residuos cuadrados en los regresores por defecto considerando la siguiente ecuación:
Variable Dependiente = Resid ^2 y los regresores las v26 v29 v36 v41 v43 v49 v51 c. Las
hipótesis planteadas fueron consideradas bajo las siguientes opciones:
Ho= no existe heterocedasticidadad
H1= existe heterocedasticidadad
Como se puede observar en la Tabla 4, el valor de R-squared corresponde a 0.032, el
número de observaciones igual a 272 y el valor de F corresponde a 9.068. Entonces:
0.032*272 < 9.068, en donde 8,7004 < 9.068
Con base a los resultados obtenidos en donde 8,7004 < 9.068, se acepta la Ho y se
rechaza la H1, es decir, el proceso experimental permitió determinar que no existe
heterocedasticidad en los datos presentados.
Los resultados permiten evidenciar que los factores V26, V29, V36 y V51 tienen una
relación inversa como se puede visualizar en la gráfica y en los coeficientes β. Lo que
indica que a menor satisfacción del alumno con la educación recibida en la universidad,
una menor experiencia académica adquirida en la educación secundaria, un disminución
en el compromiso del docente con los estudiantes y una disminución en la pertinencia
del alumno hacia su institución de formación universitaria, conlleva a la disminución del
rendimiento académico y como resultado se obtendría una disminución en la permanencia
de los alumnos en las universidades. Por el contrario los valores de β de signo positivo
para las variables V41, V43 y V49 podría ser interpretados como el incremento de la
integración social del alumno con su grupo de compañeros, el incremento del nivel de
satisfacción respecto a los mecanismos implementados por la universidad para que el
alumno se sienta motivado y un en la actitud de seguridad del alumno para expresarse
frente a sus compañeros podría aumentar el rendimiento académico del alumno y por lo
tanto la permanencia estudiantil.
4. Conclusiones
La retención de los estudiantes debería ser considerada como un elemento de prioridad
en las instituciones de Educación Superior, debido a que a permanencia estudiantil
universitaria es una problemática compleja que se deriva de un conjunto de factores
cuyo origen es variado. Del proceso de análisis se puede concluir que la base de datos
puede estar sujeta a criterios de subjetividad. Sin embargo al aplicar Alpha de Cronbach
se puede establecer el nivel de validez y confianza de la recolección y procesamiento de
la información. La regresión lineal a través de mínimos cuadrados permite determinar
el impacto que existe entre la variable explicada (rendimiento académico) y las variables
explicativas (V26, V29, V36, V41, V43, V49, V51), por lo que se puede asumir mediante la
estadística y econometría que la teoría de Tinto tiene un razonamiento lógico en este tipo
de estudios. De igual manera, se pudo establecer que los factores nivel de satisfacción
con la educación universitaria recibida (V26), experiencia académica adquirida en
la educación media (V29), actitud del docente con el estudiante (V36), integración
social (V41), satisfacción con mecanismos de motivación estudiantil (V43), actitud de
seguridad respecto al grupo de compañeros V(49), pertinencia con la universidad (V51)
fueron las variables estadísticamente significativas, lo que indica que influyen positiva y
negativamente en la permanencia estudiantil.
Referencias
Acosta, Carina. 2016. “La Deserción Universitaria Bordea El 40%.” Retrieved June
28, 2019 ([Link]
universitaria-bordea-el-40).
Astin, H. S. (1984). The Meaning of Work in Women’s Lives A Sociopsychological Model
of Career Choice and Work Behavior. The counseling psychologist, 12(4), 117–126.
Báez, C. P., & Ortiz, A. P. (2009). Programas exitosos de retención estudiantil
universitaria: las vivencias de los estudiantes. Revista Virtual Universidad Católica
del Norte, (28), 1–30.
Báez, C. P., Ortiz, A. P., & Moreno, I. D. (2011). Efectividad de las estrategias de retención
universitaria: la función del docente. Educación y educadores, 14(1), 7.
Bethencourt J.T., Cabrera, L. Hernández, J.A., Álvarez, P., & González, M. (2008).
Variables psicológicas y educativas en el abandono universitario. Revista electrónica
de Investigación Psicoeducativa, 6(3), 603–622
Carvajal, Rosa Arancibia, Carmen Trigueros Cervantes, Rosa Arancibia Carvajal, and
Carmen Trigueros Cervantes. 2017. “Aproximaciones a La Deserción Universitaria
En Chile.” Educação e Pesquisa 44(0).
Canales, A., & De los Ríos, D. (2009). Retención de estudiantes vulnerables en la
educación universitaria. Calidad en la Educación, (30), 50–83.
Catarina, Ivonne. 2006. “Método de Los Mínimos Cuadrados Ordinarios.” Universidad
de La Américas Puebla 1:41–44.
Chirivella Gonzáles, Vicente. 2019. “Hipótesis En El Modelo de Regresión Lineal Por
Mínimos Cuadrados Ordinarios.” Univeridad Politécnica de Valencia 8.
Climent Hernández, José Antonio, Luis Fernando Hoyos Reyes, and Marissa Rosario
Martínez Preece. 2017. “Formulación de Un Modelo Híbrido Alfa-Estable Para
Mercados Con Operación de Alta Frecuencia.” Contaduría y Administración
63(4):58.
Drucker, P. (2012). Managing in the next society. Routledge.
Ethington, C. A. (1990). A psychological model of student persistence. Research in
higher education, 31(3), 279–293.
Gel, Y. R., & Gastwirth, J. L. (2008). A robust modification of the Jarque–Bera test of
normality. Economics Letters, 99(1), 30–32.
Heredia Alarcón, Manuel, Marcelino Andía Ticona, Helder Ocampo Guabloche, José
Ramos Castillo, Amado Rodríguez Caldas, Catalina Tenorio, and Karim Pardo Ruiz.
2015. “Deserción Estudiantil En Las Carreras de Ciencias de La Salud En El Perú.”
Anales de La Facultad de Medicina 76:57.
Hurtado Crúz, Esteban Rubén. 2016. “El Método de Mínimos Cuadrados.” Facultad de
Ciencias UMAN 1:2–5.
Londoño Ardila, Luis Felipe. 2013. “Factores de Riesgo Presentes En La Deserción
Estudiantil En La Corporación Universitaria Lasallista Risk.” Revista Virtual
Universidad Católica Del Norte 38:183–94.
Novales, Alfonso. 2010. “Análisis de Regresión.” Universidad Complutense.
Pascarella, E. T., & Terenzini, P. T. (1983). Predicting voluntary freshman year
persistence/withdrawal behavior in a residential university: A path analytic
validation of Tinto’s model. Journal of educational psychology, 75(2), 215.
Spady, W. G. (1971). Dropouts from higher education: Toward an empirical
model. Interchange, 2(3), [Link], V., & Pusser, B. (2006). Moving from theory
to action: Building a model of institutional action for student success. National
Postsecondary Education Cooperative, 1–51.
Henry Recalde1, Paúl Francisco Baldeón Egas1, Miguel Alfredo Gaibor Saltos1, Renato
Toasa1
1
Universidad Tecnológica Israel
Pages: 425–436
Resumen: Entre los principales problemas que enfrentan los sistemas académicos
en Instituciones de Educación Superior (IES) está la seguridad de información, los
procesos que se llevan a cabo generan datos sensibles y en muchos casos, estos
sistemas carecen de una correcta auditoría de eventos en sus registros. Existen
soluciones para realizar auditoría, pero permiten una implementación genérica,
que no es muy clara al momento de hacer un control de cambios. En este trabajo
proponemos el desarrollo de un algoritmo personalizado para recolectar datos
relevantes y generar tablas logs, para posteriormente, auditar y mostrar cambios
que se generan con los registros de la tabla. La ejecución del algoritmo fue muy
satisfactoria, se generaron tablas log que muestran información completa de
cambios en un registro de la tabla o tablas seleccionadas. Con esta información
los administradores del sistema, toman oportunamente decisiones evitando que la
información sea alterada, garantizando la integridad de la misma.
Palabras-clave: Institución de Educación Superior; auditoria; algoritmo
personalizado; log; información
1. Introducción
La auditoría de Base de Datos (BDD) es un factor muy importante en la mayoría de los
sistemas que utilizan las empresas del mundo, indiferentemente del área de negocio en
el que se encuentren, la información que se almacena es sustancial y la mayoría de veces
es crítica, que al ser afectada puede ocasionar que la empresa deje de funcionar de forma
correcta (Orman, 2001). Con el gran avance tecnológico en el área de las BDD, se crearon
poderosas herramientas para gestionar y controlar grandes cantidades de información,
pero también crecieron las vulnerabilidades, que al no ser controladas pueden ocasionar
grandes pérdidas para las empresas.
La auditoría, en cualquier área de negocio, es una herramienta muy importante que
permite identificar los riesgos o problemas presentados en una entidad, y a su vez,
permite dar una pronta solución a los problemas encontrados. En el ámbito educativo,
específicamente en las IES, poco se conoce de auditorías enfocadas en el área académica
que evidencian las fallas en la gestión y el proceso enseñanza–aprendizaje (Méndez-
Aguirre & Oliveros-Vargas, 2016).
La mayoría de sistemas de auditoría se han enfocado principalmente en sistemas
financieros y bancarios (Rus, 2015), actualmente estos sistemas no deben ser considerados
un lujo sino una necesidad que tienen todas las empresas de cualquier área.
La necesidad de manejar grandes volúmenes de información de una manera rápida y
segura han obligado a los directivos de Tecnologías de Información (IT) a recurrir a
soluciones informáticas muy costosas, pero necesarias. Los sistemas implementados
con BDD disponen de diversas herramientas que permiten el manejo eficaz de los datos
importantes de una empresa, pero cuando se trata de auditoría de datos las herramientas
degradan su rendimiento (García, 2006).
Diversos estudios han demostrado la importancia de realizar auditorías académicas en
IES, en los cuales las técnicas y procedimientos óptimos que se debe utilizar son: la
recolección de información y evidencia, análisis y estudio de políticas.
Por otro lado Rogelio (2012) proponen “los aspectos que deben considerarse en una
auditoría académica para estudios a nivel de postgrado en especialidades médicas como
la planeación de actividades académicas, funcionamiento de los sistemas de control,
cumplimiento a las leyes, entre otras importantes consideraciones”.
En el caso específico de las IES, es necesario desarrollar una estrategia que permita
realizar una correcta aplicación de la auditoría para salvaguardar la información,
varias IES ya han implementado técnicas de auditoría con el objetivo de garantizar la
integridad de su información y generar indicadores para la correcta toma de decisiones
en sus actividades académicas.
Según Ortega, Avendaño, Gonzales, & Zúñiga (2010) “realizan un estudio en la
Universidad Nacional Santiago Antúnez de Mayolo de Perú, en donde mencionan el
2.1. Organización
La Institución de Educación Superior a la cual está enfocada el algoritmo propuesto
se aplicó en una Universidad de Ecuador, de Quito Ecuador. El trabajo propuesto se
implementó en la Universidad Tecnológica Israel (UISRAEL).
2.2. Tecno-estructura
La UISRAEL a partir de julio 2017 inicia con un proyecto de investigación, basado en el
desarrollo de un sistema complejo de gestión mediante el levantamiento de los procesos
académicos y administrativos, denominado Sistema Integrado de Gestión Estratégica
(SIGE), en el cual se realiza la gestión de la universidad (Baldeón,2019).
se definió para ser auditadas, este proceso genera un script el cual permite generar las
tablas log en la base de datos tomando en cuenta los permisos y esquemas de seguridad
definidos en la base de datos, iv) Generación de desencadenadores: Permite generar
el script para la creación de los desencadenadores(triggers) para insertar, actualizar y
borrar de las tablas definidas para auditar, se toma en cuenta los esquemas y roles de
seguridad los cuales podrán ejecutar dichos desencadenadores es necesario controlar el
orden de ejecución para lograr un resultado deseado para la auditoría de los datos, v)
Verificación de Información: Es necesario realizar una ejecución del código y verificación
de desencadenadores(triggers) este proceso se realiza en un ambiente de pruebas previo
a la ejecución en una base de datos de producción, la siguiente figura muestra en detalle
el proceso descrito, la Figura 1 muestra el proceso de auditoria propuesto.
4. Caso de Estudio
Para el presente caso de estudio se realizó un análisis mediante el estado del arte
sobre los riesgos de vulnerabilidades en sistemas académicos, desde el enfoque a
nivel mundial y sobre todo los casos suscitados en las IES de Ecuador. Basado en lo
mencionado la investigación tiene como objetivo la prevención de ataques cibernéticos
en la modificación de información académica, como los sucedidos en varias IES, que se
encuentran estipulados en los registros de la Fiscalía ecuatoriana.
Según Baldeón, Gaibor & Toasa (2019) el SIGE “es un sistema que integra la mayoría
de sus procesos de la UISRAEL, en el cual su función primordial en el ámbito directivo
es la toma de decisiones, basado en las características de software como la eficiencia,
la fiabilidad, la interactividad, la optimización del tiempo y diversos beneficios para
todos los usuarios”. Este sistema nace de un proyecto de investigación de la carrera de
Sistemas de Información de la Universidad, el cual posee una generación relevante de
Figura 4 – Tabla antes de la ejecución del script – Después de la ejecución del script
sistema tomar decisiones correctivas rápidas y oportunas para evitar que se manipulen
los datos y se afecte a la integridad de la información con la que trabaja el sistema de la
Universidad Tecnológica Israel.
Inicialmente se va a evaluar el volumen de registros ente los años 2012 y 2018 en el
Módulo de Gestión Académica (MGA) del SIGE en la Uisrael, el cual cuenta con un
estimado de 1’300.000 datos nos indica que es un volumen de datos considerable,
el 70% de los datos son relacionados con los registros de calificaciones, estos datos
experimentan cambios como la actualización por parte de los docentes en diferentes
parciales académicos. Este volumen de cambios obliga a que exista una correcta
auditoría para garantizar que la información haya sido actualizada solo por el MGA
del SIGE.
5. Test y Resultados
Una vez que se ha ejecutado el script, se va a tener los triggers siempre activos para
capturar cualquier cambio que se de en la tabla o tablas seleccionadas. La tabla log esta
vacía, pero cuando se altera algún dato en la tabla seleccionada automáticamente guarda
información sobre el cambio que se dio en la tabla (Ver Figura 5).
En esta tabla se puede evidenciar los datos de actualización y borrado los cuales se
guardan en la tabla de auditoria con datos de usuario, host, fecha, aplicación que ejecuto
y el tipo de cambio (inserción I, actualización U o borrado U).
Al conocer el usuario que alteró la información los administradores de la base de
datos van a actuar de manera oportuna para evitar que estos datos sean validados por
el sistema.
En la Tabla 1 se muestra las amenazas que los sistemas de información académicos de
las IES están expuestos, esto en base a la revisión de trabajos relacionados que se realizó
en esta investigación.
estudiantes, y con el análisis de log poder validar si fue un cambio permitido o alterado
por algún usuario o aplicación externa, ya que en el log se almacenan los valores
anteriores al cambio.
La importancia del desarrollo de la producción científica basada en un proyecto de
investigación como el SIGE, ha sido un puntal importante para la consolidación del
sistema en sí y la generación de estrategias tecnológicas para la prevención de riesgos
mediante una visión predictiva, como la planteada en el presente artículo.
De acuerdo a los resultados iniciales de la presente investigación, se realizará un trabajo
futuro con la implementación del algoritmo en el módulo de gestión académica de la
UISRAEL siendo fundamental para el correcto análisis y toma de decisiones académicas.
Referencias
Baldeón, P., Gaibor, M., & Toasa, R. (2019). Integrated strategic management system:
Decision making for Higher Education Institutions. Iberian Conference on
Information Systems and Technologies (CISTI) - IEEE., 1-6.
Baldeón Egas, P. F., Albuja Mariño, P. A., & Rivero Padrón, Y. (2019). Las Tecnologías
de la Información y la Comunicación en la gestión estratégica universitaria:
experiencias en la Universidad Tecnológica Israel. Revista Conrado, 15(68), 83-88.
Recuperado a partir de [Link]
view/987
Egúsquiza Pereda, C. A. (2014). Técnicas y Procedimientos Aplicables a la Auditoria
Academica. Quipukamayoc, 12(23), 17. [Link]
v12i23.5454
El Diario EC. (2013). Hackers violaron sistema informático | El Diario Ecuador. Retrieved
June 26, 2019, from [Link]
hackers-violaron-sistema-informatico/
García, M. L. V. (2006). Las Auditorias de informaciónen las organizaciones. Red de
Revistas Científicas de América Latina y el Caribe, España y Portuga (Vol. 37).
Instituto de Documentación e Información Científica y Técnica. Retrieved from
[Link]
Huaman, F. (2016). Auditoria Académica para el Fortalecimiento de la calidad
Educativa de la Universidad Nacional del centro del Peru. Retrieved from
[Link]
ACADEMICA PARA EL FORTALECIMIENTO DE LA CALIDAD EDUCATIVA DE
LA UNIVERSIDAD NACIONAL [Link]?sequence=1&isAllowed=y
Medina Ortega, M., Avendaño, W. M., Gonzales, B., & Arce Zúñiga, F. (2010). La
auditoría académica y las acciones de control para la buena administración de
la Universidad Nacional “Santiago Antúnez de Mayolo” 2007-2008. Rev. Aporte
Santiaguino (Vol. 3). Retrieved from [Link]
[Link]
Méndez-Aguirre, A. C., & Oliveros-Vargas, I. L. (2016). SIS, A Support Tool for Academic
Audit. Repositorio Universidad Dsitrital Francisco José de Caldas.
Ministerio de Defensa del Ecuador. (5 de Febrero de 2018). Código Orgánico
Integral Penal. Obtenido de [Link]
downloads/2018/03/COIP_feb2018.pdf
Orman, L. V. (2001). Database audit and control strategies. Inf. Technol. and
Management, 2(1), 27–51. [Link]
Rogelio, C., Argüelles, A. F., Alma, M. O., Rojas García, R., Martha, M. C., Marentes, E. C., &
Parra, A. Z. (2012). Auditorias Académicas ¿Futuro para las especialidades médicas
de la Universidad Autónoma de Nayarit? Revista Fuente Año (Vol. 4). Retrieved
from [Link]
Auditorias Académicas, Futuro para las especialidades médicas de la Universidad
Autónoma de [Link]?sequence=1
Rus, I. (2015). Technologies and Methods for Auditing Databases. Procedia Economics
and Finance, 26, 991–999. [Link]
Nome/Nombre:
Instituição/Institución:
Departamento:
Morada/Dirección:
País:
Telefone/Teléfono:
E-mail: Web:
Individual - 35€
NIF/CIF:
Data/Fecha: / / Assinatura/Firma: