0% encontró este documento útil (0 votos)
38 vistas149 páginas

Innovaciones Tecnologicas en Las Ciencias Computacionales

El documento aborda las innovaciones tecnológicas en las ciencias computacionales, destacando la importancia de aplicar soluciones tecnológicas para resolver problemas sociales y ambientales. Incluye una variedad de investigaciones y metodologías, como la minería de datos y la lógica difusa, para evaluar el pensamiento ambiental en la educación superior. Se enfatiza la necesidad de un enfoque multidisciplinario y la integración de la tecnología en la formación académica para mejorar las condiciones de vida en la sociedad.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Temas abordados

  • violencia intrafamiliar,
  • tecnología,
  • sistemas de información geográ…,
  • cambio de uso de suelo,
  • cámara térmica,
  • programación paralela,
  • educación 4.0,
  • diseño centrado en el usuario
0% encontró este documento útil (0 votos)
38 vistas149 páginas

Innovaciones Tecnologicas en Las Ciencias Computacionales

El documento aborda las innovaciones tecnológicas en las ciencias computacionales, destacando la importancia de aplicar soluciones tecnológicas para resolver problemas sociales y ambientales. Incluye una variedad de investigaciones y metodologías, como la minería de datos y la lógica difusa, para evaluar el pensamiento ambiental en la educación superior. Se enfatiza la necesidad de un enfoque multidisciplinario y la integración de la tecnología en la formación académica para mejorar las condiciones de vida en la sociedad.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Temas abordados

  • violencia intrafamiliar,
  • tecnología,
  • sistemas de información geográ…,
  • cambio de uso de suelo,
  • cámara térmica,
  • programación paralela,
  • educación 4.0,
  • diseño centrado en el usuario

INNOVACIONES TECNOLÓGICAS

EN LAS CIENCIAS
COMPUTACIONALES
María del Carmen Santiago Díaz
Innovaciones Tecnológicas en las Ciencias Computacionales

1
Innovaciones Tecnológicas en las Ciencias Computacionales

INNOVACIONES
TECNOLÓGICAS EN LAS
CIENCIAS
COMPUTACIONALES

2
Innovaciones Tecnológicas en las Ciencias Computacionales

INNOVACIONES
TECNOLÓGICAS EN LAS
CIENCIAS
COMPUTACIONALES

María del Carmen Santiago Díaz


Gustavo Trinidad Rubín Linares
Ana Claudia Zenteno Vázquez
Judith Pérez Marcial
(Editores)

María del Carmen Santiago Díaz


(Coordinador)

3
Innovaciones Tecnológicas en las Ciencias Computacionales

María del Carmen Santiago Díaz, Gustavo Trinidad Rubín Linares, Ana Claudia Zenteno
Vázquez, Judith Pérez Marcial
(editores)

María del Carmen Santiago Díaz


(coordinador)

María del Carmen Santiago Díaz, Gustavo Trinidad Rubín Linares, Ana Claudia Zenteno
Vázquez, Judith Pérez Marcial, Yeiny Romero Hernandez, Nicolás Quiroz Hernández,
Alma Delia Ambrosio Vázquez, Héctor David Ramírez Hernández, Gregorio Trinidad
Garcia, María De Lourdes Sandoval Solís, Rogelio González Velázquez, Guillermina
Sánchez Román, Jose Luis Hernández Ameca, Armando Espíndola Pozos, María Blanca
del Carmen Bermudez Juárez, José Martín Estrada Analco, Luz Del Carmen Reyes Garcés,
Meliza Contreras González, Luis Enrique Colmenares Guillén, Elsa Chavira Martínez,
Pedro García Juárez, Nelva Betzabel Espinoza Hernández, Alberto Román Flores, Roberto
Contreras Juárez, Graciano Cruz Almanza, Maya Carrillo Ruiz, Ernest Cortez, Bárbara
Emma Sánchez Rinza, Beatriz Beltrán Martínez, José Ítalo Cortez, Hermes Moreno
Álvarez.
(revisores)

Primera edición: 2019


ISBN: 978-607-7512-97-4
Montiel & Soriano Editores S.A. de C.V.
15 sur 1103-6 Col. Santiago Puebla, Pue.

BENEMÉRITA UNIVERSIDAD AUTÓNOMA DE PUEBLA


Rector:
Dr. José Alfonso Esparza Ortiz

Secretario General:
Dr. José Jaime Vázquez López

Vicerrector de Investigación y Estudios de Posgrado


Dr. Ygnacio Martínez Laguna

Directora de la Facultad de Ciencias de la Computación


M.I. María del Consuelo Molina García

4
Innovaciones Tecnológicas en las Ciencias Computacionales

Contenido

Prefacio……….……………………………………………………………………...….7

Minería de Datos Aplicada al Pensamiento Ambiental Universitario,


en la Oferta Educativa de Posgrados 2017 de la BUAP
Mercedes Monserrat Domínguez Navarro
Gladys Linares Fleites
J. Santos Hernandez Zepeda
Ricardo Dario Peña Moreno…………………………………………………………………...8

Hacia la Educación 4.0: Una experiencia en ESIME Ticomán


Instituto Politécnico Nacional
Jorge Sandoval Lezama
Tiburcio Fernández Roque
José Arturo Correa Arredondo………………………………………………………………...19

Diseño de un sistema multiagente basado en un entorno


colaborativo para el testing de seguridad en sistemas web
Jorge Alberto Mata Piña
Ricardo Velázquez Bautista
Niels Martínez,Guevara
Javier Sánchez Acosta…………………………………………………………………………..29

Control de inventario usando RFID y Particle Photon


Jesús Antonio Palomares Juárez
Aldrin Barreto Flores
Salvador Eugenio Ayala Raggi
Verónica Edith Bautista López…………………………………………………………………37

Una estrategia para estimular habilidades de identificación de figuras


geométricas, aplicando la tecnología lúdica en educación básica
José Luis Hernández Ameca
Lilia Mantilla Narvaez
Carlos Armando Ríos Acevedo
Daniel Arenas Romero…………………………………………………………………….……47

Metodología para migración entre gestores de bases de datos:


caso MySQL® y MariaDB®
Luis Enrique Velázquez Martínez
Juan Carlos Varela Tecalero
Ana Claudia Zenteno Vázquez
José Luis Pérez Rendón…………………………………………………………………………56

5
Innovaciones Tecnológicas en las Ciencias Computacionales

Diseño Thinking para resolución de problemas


María del Carmen Santiago Díaz
Gustavo Trinidad Rubín Linares5510548020
Judith Pérez Marcial
Ana Claudia Zenteno Vázquez………………………………………………………………….59

Análisis de estabilidad en algoritmos de caminata de robots humanoides


Yeiny Romero Hernández
María del Carmen Santiago Díaz
Gustavo Trinidad Rubín Linares
Martín Otamendi Torres………………………………………………………………………..68

Minería de datos como herramienta de prevención de muertes


que involucran violencia intrafamiliar en la sociedad mexicana
Gustavo Mendoza
Yadira Laureano de Jesús
María Josefa Somodevilla García
María Concepción Pérez de Celis Herrero…………………………………………………...75

Diseño de Programas Paralelos asistido con Diagramas de Flujo de Datos


Mario Rossainz López
Mireya Tovar Vidal
Ana Patricia Cervántes Márquez
Hilda Castillo Zacatelco………………………………………………………………………..87

Algorithm for collecting and sorting data from twitter


through the use of dictionaries in Python
María Beatríz Bernábe Loranca
Enrique Espinoza Monroy
José Martín Estrada Analco
Abraham Sánchez López………………………………………………………………………98

Monitoreo de un roedor usando un sensor térmico con Arduino


Jesús Manuel Roa Escalante
Aldrin Barreto Flores
María Isabel Martínez García
Salvador Eugenio Ayala Raggi……………………………………………………………….105

Unity y FPGA Aplicados a Robótica


José Esteban Torres León
Ricardo Fabian Caballero Morales
Marbella Muñiz Sánchez
Carlos García Lucero………………………………………………………………………….113

SIG y Cadenas de Márkov en modelos ambientales,


caso Atoyatempan, Puebla.
Luis Ignacio Juárez Ruanova

6
Innovaciones Tecnológicas en las Ciencias Computacionales

Gladys Linares Fleites


María De Lourdes Sandoval Solís
Karla Mildred Cigarroa Alonso…………………………………………………………...…121

Análisis de sensibilidad mediante software en programación lineal


María Beatriz Bernábe Loranca
Luis Alejandro Cabrera Cruz
Rogelio González Velázquez
Gerardo Martínez Guzmán……………………………………………………………………127

Prueba de Shapiro –Wilk a una Muestra de Nanoreservorios de


Taninos Extraídos de Mimosa Tenuiflora (Tepezcohuite)
Encapsulados en Matrices de TiO2
Marcos González Flores
Albino Moreno Rodríguez
José Ítalo Cortez
Adrián Hernández Santiago…………………………………………………………………..135

7
Innovaciones Tecnológicas en las Ciencias Computacionales

Prefacio
El avance vertiginoso de la ciencia y la tecnología han generado un gran
abanico de soluciones a diversos problemas, sin embargo, en nuestra
sociedad nos encontramos inmersos en un sistema que ya no brinda el
soporte para una población que ha crecido de forma tan acelerada. Por ello
es imprescindible resolver problemas propios de una sociedad en constante
crecimiento, a fin de generar mejores condiciones de vida a nuestra
población. Aunque hay identificados a nivel nacional y local los problemas
que requieren solución inmediata, casi en cualquier área se requiere realizar
innovaciones tecnológicas, algunas muy sofisticadas y complejas y otras no
tanto, pero finalmente innovaciones, es decir, aplicar ideas y conceptos para
solucionar problemas utilizando las ciencias computacionales, que aunque
en muchos casos no se requiere una solución que implique años de
investigación, si se requiere que la solución esté plenamente enfocada a un
problema en particular. Muchas de estas soluciones en general no están a la
vista sin embargo, resolver problemas ambientales, de vialidad, de
producción de alimenticios, etc., representan en sí aplicar la tecnología de
forma innovadora ya que aunque en nuestro país tenemos un enorme retraso
tecnológico, lo que no se quiere en universidades e institutos de
investigación es tener este retraso en la aplicación de la tecnología que se
genera, por ello se cuenta con diversos programas internacionales,
nacionales y locales para apoyar la innovación tecnológica. En nuestra
universidad como en muchas otras en México y en el mundo se cuentan con
programas específicos de innovación tecnológica para que laboratorios de
investigación generen y apliquen tecnología propia. Pero estos esfuerzos no
son suficientes, se requiere de una concientización colectiva para que desde
el aula se socialice la necesidad de resolver toda clase de problemas
aplicando el conocimiento impartido en clases, y no se debe esperar a una
asignatura o catedra de emprendedurismo o innovación, sino desde
cualquier tópico que se aborde en ciencias e ingeniería, ya que además de
abstraer del mundo real el problema, se deben plantear las diversas
alternativas de solución, las implicaciones tecnológicas para llevarlas a
cabo, la importancia de la implementación, pero sobre todo, resolver el
problema quizá por etapas o versiones hasta llegar a la solución óptima.

María del Carmen Santiago Díaz


Gustavo Trinidad Rubín Linares

8
Innovaciones Tecnológicas en las Ciencias Computacionales

Minería de Datos Aplicada al Pensamiento Ambiental


Universitario, en la Oferta Educativa de Posgrados 2017
de la BUAP

Mercedes Monserrat Domínguez Navarro1, Gladys Linares Fleites2, J. Santos


Hernández Zepeda3, Ricardo Darío Peña Moreno4
1
Alumno de Doctorado en Ciencias Ambientales, Instituto de Ciencias BUAP,
2
Docente Investigador del DICA BUAP, 3Docente Investigador DUDESU BUAP,
4
Docente Investigador ICUAP BUAP
Benemérita Universidad Autónoma de Puebla,
Avenida. 14 Sur # 6301, Edif. IC2, Col. San Manuel, Puebla, Pue. CP 72570 teléfono y fax
(222) 2295500 x 2568.
1
[email protected], 2 [email protected]
3
[email protected], 4 [email protected]

Resumen. La Benemérita Universidad Autónoma de Puebla (BUAP) como


institución pública, de enseñanza media superior y superior, se ha comprometido
a incorporar la filosofía del Pensamiento Ambiental en la formación de sus
alumnos. En el presente trabajo, se propone una herramienta multidisciplinaria
para identificar y evaluar si los atributos del Pensamiento Ambiental
Universitario BUAP, están presentes en la información de la oferta educativa a
nivel posgrado de 46 maestrías y 22 doctorados del ingreso de 2017. Esta
herramienta se basa en los instrumentos de adquisición de conocimientos de
bases de datos y dentro de ésta, las Minerías de Datos y de Textos; así como la
teoría general de la Lógica Difusa. La aplicación de la herramienta agrupa los
atributos en las dimensiones ambiental, social y económica que caracterizan al
pensamiento ambiental.
Palabras Clave: Minería de Textos, Pensamiento Ambiental, KDD e
Investigación en Educación Ambiental.

1 Introducción

El proceso de adquisición de conocimientos en bases de datos, la teoría de la Minería


de Datos, la Lógica Difusa y la estadística multivariada son los elementos teóricos en
que se basa este trabajo, para proponer una metodología de evaluación de las Ciencias
Ambientales características por el dinamismo, la complejidad, el enfoque sistémico, la
incertidumbre y la multidisciplinaridad.
La teoría se aplica en las Ciencias Ambientales, particularmente en los principios del
Pensamiento Ambiental en una Institución de Educación Superior (IES), como es la
Benemérita Universidad Autónoma de Puebla.
Las Ciencias Ambientales, se definen como el conjunto de ciencias cuyo objeto de
conocimiento es buscar, interpretar e investigar las relaciones que mantiene el ser
humano en sociedad, consigo mismo y con su ambiente [1].

9
Innovaciones Tecnológicas en las Ciencias Computacionales

Este grupo de características, engloban y dan lugar a múltiples definiciones de


pensamiento ambiental, entre las que en este trabajo se consideran:
• Luz Arabany Ramírez, define al pensamiento ambiental como la “suma de
principios de los pensamientos: complejo, sistémico y transdisciplinar” [2:1]. En
donde se conjuntan las visiones de: el pensamiento complejo desarrollado por Edgar
Morin; los estudios de Fritjof Capra, Ludwig von Bertalanffy y Russell Ackoff con
la teoría de sistemas; y el pensamiento transdisciplinar planteado por Manfred Max-
Neef.
• Capra plantea al pensamiento ambiental como “el pensamiento que se da por la
ampliación del enfoque sistémico del ámbito social al mundo material” [3.22].
• Javier Gonzaga Valencia enfatiza que es el pensamiento de la sociedad que vive en
armonía con la tierra, comprendiendo su situación de complejidad y caos [4].
En el diseño de esta metodología, se aplican los instrumentos de la Minería de
Textos, para identificar, si los 65 atributos característicos del pensamiento ambiental
universitario en la BUAP fueron tomados en consideración en la información de la
oferta educativa de 46 maestrías y 22 doctorados del ingreso en 2017; y posteriormente
cuantificarlos y agruparlos con la técnica de clúster de la estadística multivariada, para
obtener categorías de análisis, en función de las dimensiones de la sustentabilidad de
las Ciencias Ambientales.
Esta metodología es una propuesta multidisciplinaria, con una visión sistémica y
compleja, que incrementa las numerosas técnicas y métodos disciplinares que se han
desarrollado para evaluar los principios y resultados de las Ciencias Ambientales.
El objetivo que se plantea en este trabajo es evaluar si los principios del pensamiento
ambiental universitario fueron considerados en la planeación de la oferta educativa de
posgrados, en la información publicada en el ingreso de 2017 de la BUAP.
Para llevar a cabo el objetivo, en este trabajo se presenta la teoría general en que se
fundamenta la investigación, que es: el proceso de adquisición de conocimientos de
bases de datos KDD y la Minería de Textos como parte de la Minería de Datos, así
como, la teoría general de la Lógica Difusa. Asimismo, se define el contexto de estudio,
que es la oferta educativa de 68 posgrados en el ingreso de 2017 a la BUAP.
Por último, se describe la metodología propuesta, que considera la incertidumbre de
los datos a través de la aplicación de Lógica Difusa; se muestran los resultados
generados y se presentan las conclusiones.

2 Proceso de descubrimiento de conocimientos a partir de bases de


datos KDD, fundamentos de la Lógica Difusa y Minería de Textos

La teoría en que se fundamenta este trabajo se presenta en forma general y como temas
disciplinares, para posteriormente aplicarlos en el diseño de la metodología de
evaluación desde un enfoque de múltiples causas y múltiples efectos.

2.1 Proceso de descubrir conocimiento de Bases de Datos

La Minería de Datos se sitúa dentro del proceso de descubrir conocimiento de bases de


datos, conocido como KDD (iniciales de Knowledge Discovery in Databases), que se

10
Innovaciones Tecnológicas en las Ciencias Computacionales

“refiere a todo el proceso de extracción de conocimiento a partir de una base de datos


y marca un cambio de paradigma en el que lo importante es el conocimiento útil”
[5:12].
KDD es un proceso iterativo e interactivo que explora volúmenes muy grandes de
datos, en forma exhaustiva para determinar relaciones y hacerlos entendibles [6]. Este
proceso extrae información de calidad, evalúa e interpreta patrones y modelos que
puede usarse para generar conocimiento, basándose en relaciones o modelos dentro de
los datos [6].
El proceso KDD está estructurado en pasos, los cuales son: selección,
procesamiento, transformación, minería de datos (para generar patrones) e
interpretación y evaluación de datos [5] para de éstos generar conocimiento posterior.
Dicho proceso se aplicó en el diseño de la metodología de evaluación del
pensamiento ambiental en la oferta educativa de maestrías y doctorados en el ingreso
de 2017, ya que se utilizan los datos publicados en la página oficial de la BUAP, para
generar información de ellos.

2.2 Lógica Difusa

La Lógica Difusa tiene por finalidad “producir resultados exactos a partir de datos
imprecisos" [7]. en forma similar al pensamiento humano. Se basa es la observación y
“describe la realidad por medio de modelos flexibles que incluyen la subjetividad y la
incertidumbre” [8:6].
Es una lógica multivaluada [7] en donde los valores de verdad utilizados tienen una
connotación de incertidumbre [9] dentro de un rango de posibles resultados.
En la Lógica Difusa, se asignan diferentes valores de verdad a los enunciados o
variables; así, a cada elemento del universo le corresponde (función) un grado de
pertenencia al conjunto, en el intervalo [0,1] [10], identificado como conjunto difuso.
El manejo de conjuntos difusos genera que cada variable, en este caso la frecuencia
de atributos y categorías que caracterizan al pensamiento ambiental en la oferta
educativa de posgrados, tengan un rango de posibles soluciones, dando lugar a
alternativas de resultados con interrelaciones entre sí.
La Lógica Difusa es una forma de conocer y evaluar las múltiples relaciones hombre-
naturaleza y, por lo tanto, los elementos del pensamiento ambiental, a partir de
operaciones lógicas en términos de posibilidades, considerando un grado de
incertidumbre o indeterminación, en las frecuencias del análisis de contenido de los
atributos.

2.3 Minería de Datos y Minería de Textos

En la actualidad existe a nivel mundial una gran cantidad de datos en forma de:
imágenes, texto, audio y vídeos, conocidos como datos multimedia.
Los datos pueden provenir de múltiples fuentes heterogéneas y en forma simultánea
[11]. Dichos datos, de este gran conjunto, pueden ser estructurados, semiestructurados
y no estructurados, pero todos con el potencial de ser extraídos para obtener
información con la aplicación de instrumentos computacionales.

11
Innovaciones Tecnológicas en las Ciencias Computacionales

Las principales tareas de la Minería de Datos son: la clasificación, regresión,


agrupamientos o clúster, la asociación, el resumen o sumarización y el análisis de
secuencias, entre otros.
De las diversas aplicaciones que existen de la Minería de Datos en este estudio solo
se trata con la Minería de Textos, en particular con la bolsa de palabras o Bag of Words.
La Minería de Textos “se enfoca en el descubrimiento de patrones interesantes y
nuevos conocimientos en un conjunto de textos, es decir, su objetivo es descubrir cosas
tales como tendencias, desviaciones y asociaciones entre la “gran” la cantidad de
información textual” [12:1].
El proceso de la Minería de Textos se compone de dos etapas: la primera en donde
se realiza un análisis predictivo, en ésta los textos que se estudian se transforman en
algún tipo de representación estructurada o semiestructurada que proporcione su
estudio posterior [13] y la segunda etapa, de tipo descriptivo, que es la de análisis de
los datos y obtención de información que satisfacen los objetivos.
En este trabajo, se aplican las dos etapas y dentro de ellas se utilizan: el análisis de
contenido y la estadística multivariada para el agrupamiento de datos dentro de las áreas
ambiental y socioeconómica del pensamiento ambiental universitario.

3 El Pensamiento Ambiental en la Benemérita Universidad


Autónoma de Puebla

La Benemérita Universidad Autónoma de Puebla es una institución de enseñanza media


superior y superior, pública, líder en la región centro-oriente del país.
En la última década, la BUAP dentro de sus procesos de organización institucional,
diseño y ha aplicado su modelo educativo, conocido como Modelo Universitario
Minerva (MUM), caracterizado por ser un modelo holístico para orientar las funciones
sustantivas de docencia, investigación, extensión y difusión de la cultura [14], además
de establecer los lineamientos sobre la gestión, administración, regionalización e
integración social para sus procesos de certificación.
Teniendo este gran marco, se han establecidos lineamientos para que, en la
formación de profesionales en el nivel de maestrías, se cuente con oferta educativa
profesionalizante o enfocada a la investigación, abriendo el abanico de opciones dentro
de sus funciones sustantivas de docencia e investigación. Asimismo, se incremente la
investigación, con la formación de doctores en áreas disciplinares y multidisciplinares.
En la oferta educativa de posgrados, en el ingreso del ciclo escolar 2017, se
ofrecieron 46 maestrías y 22 doctorados en las 34 unidades académicas que brindan
este nivel de estudios.
Por otra parte, los elementos del pensamiento ambiental, dentro de la BUAP. se han
dirigido a dar cumplimiento a las directrices internacionales, latinoamericanas,
nacionales y de las IES que han marcado las líneas sobre la incorporación de la filosofía
del pensamiento ambiental, en una institución de educación superior.
Dichos elementos del pensamiento ambiental se han incorporado no solamente en el
MUM, sino en los Planes Institucionales de las ultimas administraciones, para así
orientar las funciones de la institución hacia la incorporación de la filosofía ambiental.

12
Innovaciones Tecnológicas en las Ciencias Computacionales

Para este trabajo, los elementos característicos del pensamiento ambiental en la


BUAP se delimitaron del análisis de múltiples eventos de educación ambiental que
dieron origen a directrices y lineamientos, además de los resultados de una
investigación anterior relacionada con los elementos de calidad de vida universitaria
que precisó la comunidad BUAP.
De este análisis se concretaron los atributos que caracterizan al pensamiento
ambiental [15] en la BUAP y con un estudio posterior, las categorías que agrupan a
dichos atributos.

4 Metodología

Para identificar los principios del pensamiento ambiental en la información de la oferta


educativa de posgrados de la BUAP en 2017, se plantea una metodología que utiliza
herramientas del proceso KDD, la Minería de Textos, la filosofía de la Lógica Difusa
(considera la incertidumbre de los datos) y los principios de la estadística multivariada.
Dicha metodología se divide en dos etapas: en la primera se precisaron los atributos
y las categorías de análisis de la filosofía del pensamiento ambiental universitario
(PAU) [15] en la BUAP, como se muestra en la Figura 1; y, en la segunda etapa (Figura
2) se aplican las herramientas del proceso KDD y la Minería de Textos que permiten la
clasificación de textos, la generación de agrupamientos y asociaciones, con la finalidad
de analizar la información en función de las dimensiones del pensamiento ambiental.
La primera etapa es el resultado de la puntualización de los atributos que caracterizan
al pensamiento ambiental en un ambiente universitario y el agrupamiento de dichos
atributos en categorías. Esta información se puede aplicar en los datos de oferta
educativa, planes institucionales, tesis, etc., es decir en datos textuales que se tengan en
medios electrónicos o físicos relacionados con el pensamiento ambiental universitario.
Para la primera etapa, como resultado del análisis de las directrices de la
investigación en educación ambiental y los preceptos establecidos dentro del modelo
de desarrollo institucional, se obtuvieron 65 atributos, que en forma conjunta integran
los elementos de las dimensiones: ambiental-ecológica, sociocultural y económica-
político-institucional que caracterizan al pensamiento ambiental en la BUAP.
Estos 65 atributos pueden clasificarse en cinco grupos, que son:
• Grupo de atributos generales: desarrollo, desarrollo sostenible, desarrollo
sustentable, sostenibilidad y sustentabilidad;
• Grupo de atributos de visión ecológico-ambiental: biodiversidad, cambio climático,
ciencias ambientales, complejidad, contaminación ambiental, cuencas, deterioro
ambiental, dimensión ecológica, ecología, ecosistemas, ecotecnias, educación
ambiental, enfoque sistémico, equilibrio ecológico, impacto ambiental, indicadores
ambientales, interdisciplina, investigación ambiental, medio ambiente, metodología
ambiental, multidisciplina, paradigma ambiental, pensamiento ambiental,
problemática ambiental, recursos naturales, riesgo ambiental, servicios ambientales,
técnicas de ingeniería aplicadas al medio ambiente, teoría de sistemas y
transversalidad;

13
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 1. Primera etapa del Proceso Metodológico

• Grupo de atributos específicos de un enfoque económico: desarrollos alternativos,


dimensión económica, ecología económica, economía ecológica y globalización;
• Grupo de atributos con perspectiva social y cultural: antropología ambiental,
arquitectura ambiental, cultura ambiental, dimensión social, dimensión
sociocultural, ecodesarrollo, educación, etnografía, ética ambiental, historia
ambiental, multiculturalidad, responsabilidad social, saberes ambientales,
socioeconómico y sociología ambiental;
• Grupo de atributos de la visión político e institucional: acuerdos internacionales,
derecho ambiental, dimensión institucional, directrices ambientales, gestión
ambiental, gobernanza ambiental, institución ambiental, planeación ambiental,
política ambiental y programas ambientales.
Por medio de una consulta de expertos [16] los atributos fueron organizados en 9
categorías, que son: sustentabilidad, medio ambiente, interdisciplina, ecotecnias,
transversalidad, globalización, responsabilidad social, política ambiental y
complejidad. Se consultaron 12 expertos que se desenvuelven en el campo de las
Ciencias Ambientales y, posteriormente, se agruparon sus opiniones a través de la
“moda” (concepto estadístico de tendencia central), obteniéndose los resultados
siguientes que agrupan los atributos en las categorías:
• la categoría sustentabilidad, con 6 atributos;
• medio ambiente, integrado por16 atributos;
• interdisciplina, que incluye 6 atributos;
• la categoría de ecotecnias, con 2 atributos;
• transversalidad, que sólo cuenta con el mismo como atributo;
• globalización, que incluye 4 atributos;
• responsabilidad social, en donde se agrupan 16 atributos;
• política ambiental, formado por 10 atributos; y
• complejidad, integrado por 4 atributos.
Los pasos de la segunda etapa se muestran en la Figura 2. En esta segunda etapa de
la metodología se aplicaron las herramientas de la Minería de Textos, teniendo en
cuenta los pasos del proceso de descubrimiento de información en bases de datos, para
generar resultados de la evaluación de los elementos del pensamiento ambiental
universitario en la información que publicó la BUAP en la convocatoria de ingreso en
el ciclo escolar 2017-2018 para posgrados.

14
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 2. Segunda etapa del Proceso Metodológico

Los pasos llevados a cabo, con base en el diagrama de la Figura 2 son:


• Se seleccionó la información; se limpiaron los datos, para evitar información
innecesaria; y se validaron los textos en el formato adecuado para su estudio,
consultándose la información en la página oficial de la BUAP, www.buap.mx , en
oferta educativa posgrados de 46 maestrías y 22 doctorados en el ingreso de 2017.
• Se identificó en cada uno de los 68 posgrados, la presencia de los 65 atributos que
caracterizan al pensamiento ambiental en los textos electrónicos, utilizando técnicas
de análisis de contenido con las herramientas de Atlas ti.
• El resultado fue una hoja de cálculo generada por Atlas ti, con las frecuencias de los
atributos identificados.
• Se transformó la base de datos de frecuencia de atributos a frecuencia de categorías,
con base en la agrupación propuesta por los expertos, ya descrita en la etapa
anterior.
• Se obtuvo el número máximo de frecuencias por categoría.
• Con el máximo de frecuencia de cada categoría, se generó una hoja de cálculo de
porcentajes para establecer la valoración de la incertidumbre en los datos, siendo el
resultado la división entre el numero de la frecuencia dividida entre el máximo de
frecuencias de esa categoría.
• A la información de porcentajes de frecuencias, se aplicaron las herramientas de la
técnica de clustering [17] para encontrar tendencias y agrupaciones, y con ello
identificar la similitud con la máxima homogeneidad en cada grupo de los tres
establecidos, que corresponden a las dimensiones que forman el pensamiento
ambiental
• Se generó el dendrograma de las categorías ya agrupadas en las áreas de la
sustentabilidad y se identificaron los porcentajes de similitud entre las categorías
analizadas.

15
Innovaciones Tecnológicas en las Ciencias Computacionales

5 Resultados

La aplicación de las herramientas anteriores aplicadas a la oferta educativa de


posgrados de ingreso en el ciclo escolar 2017-02018 de la BUAP, generó los siguientes
resultados:
La representación esquemática de la Minería de Datos de la frecuencia de los
atributos se muestra en la Figura 3, destacando que los atributos medio ambiente,
interdisciplina, multidisciplina y globalización son transversales a los demás atributos.

Fig. 3. Minería de Datos de los Atributos.

Las frecuencias de los atributos agrupados en categorías fueron de: en


sustentabilidad se identificaron 110 citas; medio ambiente 143 veces; interdisciplina
115; ecotecnias 61; transversalidad como se había supuesto ninguna vez se encontró;
globalización se identificó con 37 veces; responsabilidad social fue la de mayores
citas con 251; política ambiental tuvo 48 citas; y complejidad 88.
Esas cifras revelan que el pensamiento ambiental se ha considerado en la oferta
educativa, como parte de la planeación de la docencia a nivel posgrados.
Al aplicar las herramientas de la Minería de Textos en particular, la técnica de
conglomerados, se generó la agrupación de las categorías y se identificó la semejanza
entre éstas.
Se utilizó la herramienta de conglomerados jerárquicos; con distancia de
coeficiente de correlación y con enlace de Ward, en donde se observó que las
categorías se agrupan en las dimensiones ambiental y socioeconómica que
caracterizan al pensamiento ambiental.
El resultado del clúster es la representación gráfica del diagrama de árbol o
dendrograma, que agrupa los datos tres grupos que corresponden a las áreas
ecológica-ambiental y social económica del pensamiento ambiental.
El dendrograma obtenido de los datos de la oferta educativa de posgrados de la
BUAP en el ingreso de 2017, se muestra en la Figura 4.

16
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 4. Dendrograma de Categorías

El agrupamiento se realizó en dos “clúster”: el primero incluye a las categorías de


sustentabilidad y globalización similares en cerca de 80%, y estas dos últimas son
similares a responsabilidad social en 68%, además las tres agrupadas son similares a
política ambiental en 55% integrando el área socioeconómica; el segundo grupo lo
forman medio ambiente y ecotecnias que son similares en 85%, y que junto con
interdisciplina y complejidad equivalentes en parecido en 77%, forman un grupo
similar en 53% que caracterizan al área ambiental.
Las similitudes de las categorías social-económica y ecológico-ambientales
presentan una similitud de 32.99% entre ellas.
Al estudiar la oferta educativa como un sistema y ser la similitud entre los dos
conglomerados de un tercio, se puede afirmar que se identifican los principios del
pensamiento ambiental en la oferta educativa de posgrados de BUAP en el ingreso de
2017, en proporciones equivalentes.
Sintetizando, se tiene que el número de veces que se presentan los atributos y su
agrupación en categorías mostró grupos homogéneos, desconocidos a priori, que
permiten evidenciar su integración en las áreas ambiental y socioeconómica del
pensamiento ambiental universitario, dentro de la oferta educativa publicada de
posgrados BUAP en el ingreso de 2017.

6 Conclusiones y trabajos futuros

La propuesta del proceso metodológico que incluye técnicas cuantitativas y


cualitativas, multivariadas puede aplicarse en cualquier documento electrónico o físico,
relacionados con las funciones sustantivas de una institución de educación superior y
los principios del pensamiento ambiental en este marco de referencia.
La incorporación del pensamiento ambiental en la oferta educativa de posgrados deja
ver como la institución en sus planes de organización y modelo educativo, considera la

17
Innovaciones Tecnológicas en las Ciencias Computacionales

las múltiples interrelaciones entre las ciencias de participan en la relación del hombre
en sociedad y la naturaleza.
La BUAP como institución pública de nivel superior, ha incorporado el pensamiento
ambiental en sus programas de docencia a nivel posgrados.

Referencias
1. Leff, E.: Aventuras de la epistemología ambiental. De la articulación de las ciencias al
diálogo de saberes. Siglo XXI (2006)
2. Ramírez C.L.A: Sostenibilidad o Pensamiento Ambiental II. Congrés UPC Sostenible (2015)
3. Capra, F.: Las Conexiones Ocultas, Implicaciones Sociales, medioambientales, Económicas
y Biológicas de una Nueva Visión del Mundo. Editorial Anagrama (2002)
4. Valencia Hernández, J.: Conflictos Ambientales: Praxis, Participación, Resistencias
Ciudadanas y Pensamiento Ambiental. Revista Luna Azul, (24), 35-41, (2007)
5. Riquelme Santos, J.C., Ruíz, R. y Gilbert, K.: Minería de Datos: Conceptos y Tendencias.
Inteligencia Artificial. Revista Iberoamericana de Inteligencia Artificial, 10 (29), 11-18,
(2006)
6. Minerva Data Mining: Descubrimiento de Conocimiento en Bases de Datos KDD Guía, en
https://mnrva.io/kdd-platform.html, (2018). Accedido el 1 de mayo de 2019
7. Morales-Luna, G.: Introducción a la Lógica Difusa. Centro de Investigación y Estudios
Avanzados del IPN México, (2002)
8. Lazzari, L.; Machado E.; Pérez R.: Los conjuntos borrosos una introducción. Facultad de
Ciencias Económicas, Universidad de Buenos Aires, Cuaderno N° 9, (2000)
9. Torres M, A.; Tranchita R, C.: ¿Inferencia y razonamiento probabilístico o difuso? Revista
de Ingeniería, 0(19), 158-166. doi:10.16924/riua.v0i19.450, (2014)
10. Flores P.L.; Camarena L.M.: Evaluación de programas públicos en el marco de la realidad
social, metodología basada en la Lógica Difusa como instrumento para el análisis de
fenómenos sociales. Revista Latinoamericana de Metodología de la Investigación Social
ReLMIS. Nº 5. Año 3. Abril- septiembre 2013, 8-23 Argentina, Estudios Sociológicos
Editora. Disponible en:
http://www.relmis.com.ar/ojs/index.php/relmis/article/view/58, (2013)
11. Joyanes, A.L.: Big Data, Análisis de grandes volúmenes de datos en organizaciones,
Alfaomega Grupo Editorial, (2016)
12. Montes-y-Gómez, M.: Minería de texto: Un nuevo reto computacional, Laboratorio de
Lenguaje Natural, Centro de Investigación en Computación, Instituto Politécnico Nacional
https://ccc. inaoep. mx/~ mmontesg/publicaciones/2001/MineriaTexto-md01, (2001),
Accedido el 28 de agosto de 2018
13. Oviedo, E.A.; Oviedo, A.I.;Vélez Saldarriaga, G.L.: Minería multimedia: hacia la
construcción de una metodología y una herramienta de analítica de datos no estructurados,
Revista Ingenierías Universidad de Medellín, vol. 16, No. 31 pp. 125-142 ISSN 1692 - 3324
julio-diciembre de 2017/272 p. Medellín, Colombia, (2017)
14. Benemérita Universidad Autónoma de Puebla: Modelo Universitario Minerva:
Fundamentos, Modelo Educativo Académico, Estructura Curricular, Integración Social y
Documentos de integración BUAP, México. (2007)
15. Benemérita Universidad Autónoma de Puebla: Plan de Desarrollo Institucional, Gestión
2013 – 2017, México. (2014)
16. Briones, G.: Métodos y Técnicas de Investigación para las Ciencias Sociales, México,
Trillas, (2001)

18
Innovaciones Tecnológicas en las Ciencias Computacionales

17. Linares F. G.: Análisis de Datos Multivariados, BUAP Facultad de Ciencias de la


Computación, Puebla, México, (2006)

19
Innovaciones Tecnológicas en las Ciencias Computacionales

Hacia la Educación 4.0: Una experiencia en ESIME


Ticomán, Instituto Politécnico Nacional

Jorge Sandoval Lezama1, Tiburcio Fernández Roque2, José Arturo Correa


Arredondo3
1,2,3
Instituto Politécnico Nacional, Escuela Superior de
Ingeniería Mecánica y Eléctrica, Ticomán
Avenida Ticomán #600, Col. San José Ticomán, Del. Gustavo A. Madero
Ciudad de México, México, C.P. 07320.
[email protected]

Resumen. En la transición hacia la Educación 4.0. la ESIME participó en el


Partners for the Advancement of Collaborative Engineering Education. PACE
proporcionó software para que los estudiantes desarrollarán habilidades
CAD/CAM/CAE que se utilizan en la industria automotriz actual y promovió
tanto competencias globales como institucionales. En el último proyecto global
los estudiantes utilizando el enfoque de las Tecnologiás de la Información y la
Comunicación, presentaron soluciones para el transporte de la primera
milla/última milla para la población adulta activa con el enfoque de la educación
4.0. Se presentan experiencias y resultados.
Palabras clave: TIC´s, Educación, Transición, Proyectos Globales,
Colaboración.

1 Introducción

El término "Industria 4.0" fue acuñado en 2011 por Acatech (la academia de ciencias
de la ingeniería del gobierno alemán) como una visión futura para el uso de la
tecnología [1]. La industria 4.0 describe cómo el Internet de las Cosas el Internet
industrial, los Sistemas Embebidos, entre otros mejorará drásticamente la ingeniería, la
producción, la logística y la gestión del ciclo de vida de la industria de procesos. Con
el fin de preparar a los estudiantes de ingeniería con los retos de la industia 4.0 se derivó
el concepto Educación 4.0 [2] que de acuerdo a Fisk [3], implica 9 tendencias asociadas:

1.1 Tiempo y lugar diversos.

Los estudiantes tendrán más oportunidades de aprender en diferentes momentos y en


diferentes lugares. Las herramientas de eLearning facilitan las oportunidades de
aprendizaje remoto y autoguiado, lo que significa que la parte teórica se aprende fuera
del aula, mientras que la parte práctica se enseñará cara a cara, de forma interactiva.

1.2 Aprendizaje personalizado.

Los estudiantes aprenderán con herramientas de estudio que se adaptan a sus


capacidades Esto significa que los estudiantes por encima de la media serán desafiados
con tareas y preguntas más difíciles cuando se alcance un cierto nivel. Los estudiantes
serán reforzados positivamente durante sus procesos de aprendizaje individuales.

20
Innovaciones Tecnológicas en las Ciencias Computacionales

1.3 Libre elección.

Los estudiantes podrán modificar su proceso de aprendizaje con herramientas que


consideren necesarias para ellos. Los estudiantes aprenderán con diferentes
dispositivos, diferentes programas y técnicas basadas en su propia preferencia.

1.4 Basado en proyectos.

Los estudiantes de hoy se adaptarán al aprendizaje y al trabajo basados en proyectos.


Esto significa que tienen que aprender a aplicar sus habilidades en términos más cortos
a una variedad de situaciones. Esto es cuando las habilidades organizativas,
colaborativas y de gestión del tiempo se pueden enseñar como conceptos básicos que
cada estudiante puede usar en sus carreras académicas posteriores.

1.5 Experiencia de campo.

Debido a que la tecnología puede facilitar una mayor eficiencia en ciertos dominios,
los planes de estudio darán espacio a habilidades que requieren únicamente
conocimiento humano e interacción cara a cara. Las escuelas proporcionarán más
oportunidades para que los estudiantes obtengan habilidades del mundo real que sean
representativas de sus trabajos, es decir proyectos de tutoría y proyectos de
colaboración.

1.6 Interpretación de datos.

Las computadoras pronto se encargarán de todos los análisis estadísticos, y describirán


y analizarán los datos y predecirán las tendencias futuras. Por lo tanto, la interpretación
humana de estos datos se convertirá en una parte mucho más importante de los planes
de estudio futuros. Aplicar los conocimientos teóricos a los números, y utilizar el
razonamiento humano para inferir la lógica y las tendencias de estos datos se convertirá
en un nuevo aspecto fundamental de esta alfabetización.

1.7 Los exámenes cambiarán por completo.

Medir sus competencias a través de preguntas y respuestas podría volverse irrelevante


o no sería suficiente. A los educadores les preocupa que los exámenes no midan
válidamente lo que los estudiantes deben ser capaces de hacer cuando ingresan a su
primer trabajo. Como el conocimiento fáctico de un estudiante se puede medir durante
su proceso de aprendizaje, la aplicación de sus conocimientos se prueba mejor cuando
trabajan en proyectos en el campo.

1.8 Propiedad del estudiante.

Los estudiantes se involucrarán cada vez más en la formación de sus planes de estudio.
Mantener un plan de estudios contemporáneo, actualizado y útil sólo es realista cuando
participan profesionales y "jóvenes".

21
Innovaciones Tecnológicas en las Ciencias Computacionales

1.9 La tutoría será más importante.

En 20 años, los estudiantes incorporarán tanta independencia en su proceso de


aprendizaje, que la tutoría se convertirá en fundamental para el éxito de los estudiantes.
Los profesores formarán un punto central en la jungla de información que nuestros
estudiantes estarán allanando su camino a través. Aunque el futuro de la educación
parece remoto, el maestro y la institución educativa son vitales para el rendimiento
académico.

Por otro lado, el Instituto Politécnico Nacional (IPN), es una institución pública
mexicana de investigación y educación en niveles medio superior, superior y posgrado;
es considerada una de las instituciones educativas más importantes de México y
América Latina por su nivel académico, y su matrícula inscrita de más de 160.000
alumnos en sus 293 programas educativos impartidos en sus 82 unidades académicas.
La Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME) es una institución
pública de nivel superior perteneciente al Instituto Politécnico Nacional, encargada en
la formación de profesionales en el área de la ingeniería. La ESIME cuenta con cuatro
unidades distribuidas en la Ciudad de México: Azcapotzalco, Culhuacán, Ticomán y
Zacatenco. En La ESIME Ticomán se imparten dos carreras las cuales son, Ingeniería
Aeronáutica e Ingeniería Automotriz.

Socios para el Avance de la Colaboración en la Formación de Ingenieros (Partners


for the Advancement of Collaborative Engineering Education, PACE) [4] fue un
programa de vinculación de la industria con algunas instituciones académicas de todo
el mundo con el fin de desarrollar la Gestión del Ciclo de Vida de Productos
Automotores (PLM) del futuro. La definición de PLM es una ingeniería integrada para
todos los aspectos de la vida de un producto, desde su creación, el diseño hasta la
fabricación, comercialización, distribución y mantenimiento, y en última instancia, el
reciclaje y el enfoque de disposición. Los socios industriales incluían entre otros,
General Motor (GM), Autodesk, HP, Oracle, Altair, Ansys y Siemens [5]

2 Competencias internacionales

El objetivo de PACE era permitir que los estudiantes de ingeniería recibieran


experiencia práctica con las herramientas actuales de CAD/CAE/CAM utilizadas en la
industria del automóvil. El PACE incluía 22 compañías de clase mundial y 46
universidades que representaban a 12 países. El IPN ESIME TIC., participó
activamente en representación de México en el programa PACE. Cabe mencionar que
fuimos la única universidad Pública de México que participo en el PACE, las otras
cuatro, eran universidades privadas. En el bienio 2015-2016 se realizó el proyecto
global "Vehículo Reconfigurable el Uso Compartido” (Reconfigurable Shared-Use
Mobility Systems), en las ciudades de Sao Paolo, Brasil y Cincinnati, USA
respectivamente [6]. En la figura 1 se muestra página 12 Annual Report PACE 2016,
resultados obtenidos por cada quipo participante.

22
Innovaciones Tecnológicas en las Ciencias Computacionales

Finalmente El PACE propuso la última competencia global con una duración de dos
años 2017-2018 “Vehículo Personal para la Movilidad Urbana” (Personal Urban
Mobility Access) con el fin de presentar soluciones de diseño que abordan las
necesidades de transporte de la primera milla/última milla para la población adulta
activa, en un mercado objetivo específico, tal como China, USA, o Korea del Sur. Los
equipos de Global PACE crearon una solución de primera milla / última milla que, en
teoría, se pudiera producir utilizando tecnología actual o emergente dentro del tiempo
de entrega del proyecto. Cada equipo era evaluado sobre qué tan bien se entendían los
problemas sociales, económicos y de conveniencia de su mercado elegido y qué tan
bien sus soluciones de movilidad propuestas abordan esos problemas dentro de la
población que envejece. La competencia global 2017 se realizó en Cd. de Toluca
México y la competencia global del 2018 se realizó en la Cd. de Warren, Michigan
USA. En la figura 2 se presenta portada del PACE y los 6 prototipos de la competencia
global 2018 PUMA.

Los estudiantes de IPN que participaron en el proyecto global 2017-2018, fueron


estudiantes de diferentes semestres de Ingeniería en Sistemas Automotrices e Ingeniería
Aeronáutica de la ESIME TIC y alumnos de Ingeniería en Computación de la ESCOM-
IPN y conformaron el equipo de IPN México; qué a su vez, fue parte del equipo 4 PACE
junto con otras cinco universidades: Hongik University Korea (lead), Tuskegee
University USA, Northwestern University USA, Jilin University China, Wuhan
University of Technology China. En la figura 3 se muestra la distribución de trabajo
del team 4 para la competencia global PUMA.

El primer año de cada competencia, los estudiantes participaban en la creación de


conceptos, diseños preliminares y diseños a detalle a través de reuniones programadas
en línea que se coordinaron a través de la oficina de PACE mediante la programación
de invitaciones y la organización de mentores del equipo 4 con representantes de GM
a través de videoconferencias. El segundo año involucró la actividad de análisis de
diseños y desarrollo de prototipos que fue patrocinado por el PACE. A los equipos de
estudiantes se les asignó la tarea de dividir el trabajo y el trabajo se integró en varias
etapas para hacer un prototipo funcional y finalmente, llevarlo al foro para su
evaluación y validación.

El equipo del IPN ESIME Ticomán lo conformamos inicialmente 12 estudiantes y


el PACE Integrator del IPN en el 2015, pero por cuestiones de presupuesto solo
asistieron los 2 estudiantes líderes y el PACE Integrator. Los dos estudiantes se
certificaron en el uso del software Nx de Siemens, y el PACE Integrator del IPN fungío
como juez en el Collaboration & Innovation Challenge Poster Judges Competition.[7]
Una de las primeras actividades que les planteo dentro del proyecto fue que
promocionaran el Proyecto PACE salón por salón en ESIME TIC, así como que
capacitaron a los nuevos integrantes, los cuales a su vez capacitan a los participantes
más recientes en la utilización de las herramientas digitales, del software PACE. Para
el 2018 fueron aproximadamente 35 alumnos de primero a octavo semestre de las
carreras de Ing. Automotriz e Ing. Aeronáutica. Los alumnos participantes se reúnan
los jueves y hasta sábados en el Laboratorio de Diseño del ESIME TIC para trabajar el

23
Innovaciones Tecnológicas en las Ciencias Computacionales

CAD y el CAE del vehículo PUMA. Cabe mencionar que la infraestructura de la


ESIME TIC es de aproximadamente 600 computadoras para atender una población de
1780 alumnos y 170 profesores. Por otro lado, solo en el caso del software Nx de
Siemens para 50 licencias el costo es de aproximadamente $800 000 pesos para
instituciones que no pertenecen al PACE, y para instituciones PACE como ESIME TIC
el costo se reduce a $100 000 pesos para mantenimiento anual.

3 Competencias de fin de curso institucionales

Paralelamente el PACE promovía que los estudiantes utilizarán datos digitales, para
análisis, diseño y manufactura, en los cursos de ingeniería, patrocinando
“Competiciones de Fin de Cursos” (Course Competition) en los cursos que incluyeran
en su currícula al software PACE. El “Course Competition” involucró proyectos de los
estudiantes usando software PACE, es decir herramientas CAD/CAE/CAM o de
colaboración (por ejemplo, NX, NX-CAM, Autodesk Alias Automotive, MATLAB,
Simuilnk). Estas competiciones proporcionan varios beneficios para los estudiantes,
incluyendo: una oportunidad para que los estudiantes presentan ante un grupo de
representantes de la industria y recibir retroalimentación sobre sus proyectos Una
oportunidad para (virtualmente o en persona) conocer y hablar con expertos en el tema
de GM, Autodesk, Hewlett-Packard, Oracle, Siemens PLM Software, y en su caso,
otros colaboradores PACE.

Específicamente se promovieron al menos un Course Competition en grupos de


sexto y octavo semestre de Ing. Aeronáutica desde 2015 hasta el presente. Los
proyectos eran evaluados con los siguientes criterios: forma, tamaño, función, la
presentación y el trabajo en equipo/colaboración. Los concursos académicos del 2017
se realizaron con la presencia de 3 académicos de ESIME TIC y 3 representantes de
GM planta Toluca que fungieron como jueces. Los estudiantes se beneficiaban al
trabajar en equipo, al utilizar herramientas de software de alta tecnología y a través de
la interacción con los socios de la industria. Para el semestre Enero a junio del 2017 los
objetivos del Proyecto Final fueron: a. Realizar el control de un vehículo de 4 ruedas,
basado en el concepto “Steer By Wire”, basado en la plataforma Arduino uno y Arduino
mega en MATLAB/SIMULINK [8], integrando el control de actuadores y sensores y
b. Diseño CAD del vehículo en el software NX. Para el semestre Enero a junio del 2018
el proyecto final fue el control de un Aeropéndulo, basado en la plataforma Arduino
uno y Arduino mega en MATLAB/SIMULINK, integrando el control de actuadores y
sensores, En la foto 1 se muestra el Course Competition, “Control Redundante
Aeropéndulo” Diciembre del 2017 y en la foto 2 el Course Competition “Steer by Wire”
junio 2016 en el IPN ESIME TIC.

Finalmente como parte de la estrategia metodológica del Course Competition


institucional y del Proyecto Global PACE, recientemente hemos utilizado el software
WonderShare QuizCreator, el cual es un software profesional que permite construir,
crear y desarrollar toda clase de pruebas, cuestionarios y exámenes, con el fin de
administrar y realizar un seguimiento de los resultados. Es de gran ayuda en la
planeación pedagógica de los profesores. Se pueden hacer exámenes de varios tipos

24
Innovaciones Tecnológicas en las Ciencias Computacionales

desde preguntas de falso o verdadero hasta preguntas de elección múltiple (con una o
más respuestas) [9]

4 Aspectos críticos y relevantes a resaltar

El aspecto que consideramos crítico, se refiere a la gestión, específicamente en la


ESIME TIC se utiliza la Norma ISO 9001 2015, que es la base del Sistema de Gestión
de Calidad; norma internacional que permite administrar y mejorar la calidad de sus
productos o servicios. En base a dicha norma en la universidad tenemos una falla crítica
en términos de que no se ha actualizado en Ing. Aeronáutica sus planes y programas de
estudio, desde el 2004, es decir no se incorpora la visión de la sustentabilidad y del
ciclo de vida del producto en los planes y en el caso de Ing. Automotriz no se
actualizado desde el 2007. [10]

Por otro lado, al participar en el programa PACE nos ha permitido corregir fallas ya
que el enfoque en el PACE es del PLM, y estamos realizando acciones como tutorías,
cursos cortos y preparación de cursos para profesores tal como “Conciencia ambiental
en Ingeniería Aeronáutica” desde el enfoque del Product LifeCycle Management.

Al aceptar la responsabilidad de contribuir a una organización, los estudiantes


también están aceptando la rendición de cuentas, así como, informar a otros estudiantes
miembros de los programas y actividades, asignar adecuadamente los fondos en favor
de la organización y el cumplimiento del Código de Conducta del Estudiante. Algunos
de los beneficios de la vida real incluyen el desarrollo de liderazgo, competencia
multicultural, la comunicación, el crecimiento intelectual y el desarrollo de las
relaciones interpersonales.

5 Resultados y conclusiones

Los alumnos del Instituto Politécnico Nacional en colaboración con universidades


extranjeras obtuvieron diversos premios en diferentes categorías desde el 2007 [11];
específicamente junto con 5 universidades extranjeras en el PUMA 2018, se obtuvieron
6 premios en 2018: Primer lugar en “Production Ready”, Primer Lugar en “Customer
Insight”, Segundo Lugar en “Manufacturing Engineering”, Tercer lugar en “Industrial
Design”, Tercer lugar en “Product Engineering” y Tercer lugar en “Road Test
Competition”En la figura . En [12] se tiene la liga de youtube de la grabación de la
evaluación del Team 4 y el prototipo (IPN entre otros) ante jueces de PACE, con
duración de 49 min. En foto 3 se muestran algunos de los premios obtenidos en el
RSMS 2016 y PUMA 2018.

Al participar en competencias/concursos y aplicar la estrategia pedagógica de grupo


de colaboración en donde comparten actividades, compromisos y metas, los estudiantes
se motivan para elaborar/autogenerar su conocimiento con mayor significado y
comprensión.

25
Innovaciones Tecnológicas en las Ciencias Computacionales

Alumnos de ingeniería automotriz y de ingeniería aeronáutica a partir del 2017, por


primera vez trabajan de forma colaborativa en el desarrollo de electrónica y control de
un vehículo. Alumnos avanzados del PACE capacitan en el manejo del software NX de
siemens a alumnos que recién se incorporaban en el proyecto.

Somos la única universidad Pública de México que participa en el PACE, las otras
cuatro, son universidades Privadas. El reto es hacer más con menos en términos
monetarios.

Se gestionó siempre, en tiempo y forma los recursos financieros en la universidad


para que asistieran al foro global PACE, cuatro alumnos y el profesor mentor durante
dos semanas, una de capacitación y la otra de la competencia $80,000 pesos y $15,000
respectivamente.

El IPN formo parte de equipos multidisciplinarios globalizados que coordinaron y


gestionaron tareas y objetivos, utilizando el enfoque de las TIC´s. Los resultados y los
trofeos obtenidos demostraron que los estudiantes de diferentes países podían colaborar
efectivamente en el CAD, CAE y CAM de vehículos para la solución del transporte de
la primera milla/última milla para la población adulta activa.
Con el fin del PACE, ya que el foro global 2018 fue el último que apoyó GM y
derivada de la experiencia adquirida junto con otros profesores participantes en PACE,
se trabajó a partir de agosto del 2018 con algunas otras universidades extranjeras y los
ex-socios PACE, especialmente Altair, para la creación de IDEEAS (International
Design and Engineering Education Association), una nueva red de colaboración
internacional.[13]

Consideramos que de acuerdo con las premisas planteadas por Fisk [5] y a la
participación en proyectos globales reales Universidad/Empresa, la ESIME TIC/IPN
ha estado en el proceso de transición hacia la Educación 4.0 desde el 2015.

Fig 1. Pagina 12 del Annual Report PACE 2016. El team 3: IPN y otras 5
univerisades obtuvieron cuatro primeros lugares en el Reconfigurable Shared Use
Mobility Systems 2015-2016, USA

26
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 2. Portada de la Página del PACE, con los 6 prototipos de la competencia global
2018.

Fig. 3. Distribución de actividades del equipo 4, para el desarrollo del prototipo PUMA
seleccionado en 2017, para competir en 2018 en ciudad de Warren, USA.

Foto 1. Pruebas preliminares de un sistema de Control Redundante, Aeropéndulo,


Course Competition, Diciembre del 2017 en IPN ESIME.

27
Innovaciones Tecnológicas en las Ciencias Computacionales

Foto 2. Presentación de prototipo ante jueces de General Motors en el “Steer by


Wire” Course Competition IPN ( ESIME TIC) México Junio 2016.

Foto 3. 1st Place Award Overall, RSMS Competition, Team 3 Ta-Da obtenido en
2016, Cincinnati (izq) y 1st Place, Customer Insight – 3RD Place Road Test, Team 4,
PUMA Competition, 2018, Warren USA (der)

Referencias

1. Stefan Ferber, Industry 4.0 – Germany takes first steps toward the next industrial revolution,
Bosch ConnectedWorld Blog, https://blog.bosch-si.com/industry40/industry-40-germany-
takes-first-steps-toward-next-industrial-revolution/ (2012). Accedido 10 May 2019
2. Anealka Aziz Hussin, Education 4.0 Made Simple: Ideas For Teaching, International Journal
of Education & Literacy Studies, https://files.eric.ed.gov/fulltext/EJ1190812.pdf (2018),
Accedido 14 March 2019

3. Peter Fisk, Education 4.0: The future of learning will be dramatically different, in school and
throughout life, The genius works, https://www.thegeniusworks.com/2017/01/future-
education-young-everyone-taught-together/ (2017). Accedido 08 June 2018

28
Innovaciones Tecnológicas en las Ciencias Computacionales

4. Mohammad K. Hossain, et. al., Design of a Portable Assisted Mobility Device — A


sustainable urban transport, International Conference on Connected Vehicles and Expo
(ICCVE) https://ieeexplore.ieee.org/document/6799905, 2013. Accedido 12 Junio 2019

5. Partners for the Advancement of Collaborative Engineering Education,


www.pacepartners.org
6 PACE Annual Report, 2016, Páginas 10 a 15
https://pacepartners.org/files_pub/PACE_AR2016Updated_spreads.pdf
7 Annual Forum , 2015 “Rethinking Mobility” paginas 11 a 14 y pagina 72
http://www.pacepartners.org/files_pub/2015_PACE_Forum_program_forweb.pdf
8. Matlab, Simulink, www.mathworks.com
9. Wondershare, A professional quiz software builder that lets you create and manage your quiz
or survey, and track the results. https://www.wondershare.com/pro/quizcreator.html
10. The future of education and skills Education 2030, Organisation for Economic Co-operation
and Development, (OECD), 2018
https://www.oecd.org/education/2030/E2030%20Position%20Paper%20(05.04.2018).pdf

11. Sandoval J.; Tame A.; Sandoval A.; Collaborative learning through 2015 Partners for the
advancement of collaborative engineering education global project competition,
International Technology, Education and Development Conference,
https://library.iated.org/?search_text=&adv_title=&rpp=25&adv_authors=j+sandoval&adv
keywords, (2016), Accedido 12 de Julio de 2019
12 2018 PACE Forum Day 1, Team 4, https://www.youtube.com/watch?v=rPLvp_9Ayu4

13. ideea´2019 – CFP, https://easychair.org/cfp/IDEEA2019 Annual Meeting of International


Design and Engineering Education Association, that was conceived after PACE organization
ended in 2018

29
Innovaciones Tecnológicas en las Ciencias Computacionales

Diseño de un sistema multiagente basado en un entorno


colaborativo para el testing de seguridad en sistemas web.

Jorge Alberto Mata Piña1, Ricardo Velázquez Bautista1, Niels Martínez Guevara 1,
Javier Sánchez Acosta 1
Facultad de Estadística e Informática, Universidad Veracruzana
1
Av. Xalapa, Esq. Manuel Ávila Camacho s/n CP. 91020
[email protected], [email protected], {nmartinez,javsanchez}@uv.mx

Resumen. El desarrollo de herramientas inteligentes, para la implementación de


servicios en seguridad de redes ha crecido en los últimos años, tecnologías como
los smart IDS y proxys inteligentes han crecido en el mercado de la industria de
seguridad de redes. Es por ello que en el siguiente artículo se presentan los
aspectos clave para el diseño de un sistema multiagente (SMA) tomando en
cuenta las interacciones presentes de un sistema colaborativo, para la realización
de ataques de denegación de servicios distribuidos (DDoS), con el fin de poder
detectar las vulnerabilidades que pueda tener un servidor web. Existen diferentes
tipos de ataques DDoS pero en este artículo se centrará en los basados en volumen
de datos, lo que provoca que un sitio sea inaccesible.
Palabras Clave: Seguridad, DDoS, Agente, Sistema Multiagentes, Servicios
Web, Diseño Colaborativo.

1 Introducción

En este artículo se expondrá el diseño de un sistema multiagente enfocado al área de la


seguridad de servicios web, específicamente en las pruebas de penetración, todo esto
con el propósito de generar ataques del tipo DDoS (denegación de servicios
distribuidos) para detectar las posibles vulnerabilidades de este ataque en un servidor
web, durante el desarrollo de este documento se explicarán los factores que se tomaron
en cuenta para el diseño del SMA. El siguiente diseño se basó en un modelo actual de
testing para servicios web, con la finalidad de poder tener resultados similares, pero
con la posibilidad de escalar a otros tipos de ataques web.

Según los resultados del Global State of Information Security Survey (GSISS) de
2018, muestran que las organizaciones necesitan esforzarse más en el diseño de
estrategias de seguridad contra amenazas. Aunado a esto el impresionante crecimiento
de las organizaciones que evolucionan a sistemas digitales, se han visto afectadas por
ciberataques ya que existe la posibilidad que haya fallas a nivel de seguridad, debido a
malas administraciones y/o configuraciones de los servicios web, etc. Todo esto hace
factible el uso de un SMA dado a que cuentan con características como autonomía,
sociabilidad, proactividad, reactividad, adaptabilidad e inteligencia, las cuales son muy
útiles para resolver este tipo de problemáticas.

30
Innovaciones Tecnológicas en las Ciencias Computacionales

2 Agentes

Un agente es un sistema computacional capaz de actuar de manera autónoma, de


percibir un estado o ambiente en un entorno mediante sensores y que ejecuta un
conjunto de acciones como respuesta para lograr los objetivos.[2],[3]

Cuentan con características básicas que le proporcionan los principios para poder
realizar sus tareas de manera correcta:[2]

● Autonomía: Actuará sin ningún tipo de intervención humana directa y tendrá


control de sus propios actos.
● Sociabilidad: Será capaz de comunicarse con otros agentes e incluso con las
personas.
● Reactividad: Podrán detectar cambios en su entorno y reaccionar ante ellos.
● Iniciativa: Emprenderá las acciones necesarias para conseguir su objetivo.
● Adaptabilidad: Podrá adaptarse a cada cambio que suceda en el entorno.
● Inteligencia: Será coherente, racional y adaptable.

Nuestro SMA cuenta con autonomía, debido a que una vez iniciado el programa, no
tendrá interacción alguna con los humanos, sino que ejecutará las acciones indicadas
en un principio; del mismo modo cuenta con sociabilidad porque cada agente interactúa
entre sí; la reactividad está en cuanto el SMA detecta algún cambio en el servidor web,
si cerraron el puerto y abrieron otro por ejemplo; la iniciativa sucede cuando ejecuta las
tareas necesarias para lograr deshabilitar el servicio, esto sucederá cuando haga el
primer ataque, si ve que aún no cae el servidor, tomará la iniciativa de ejecutar el
segundo ataque de manera simultánea para lograr su objetivo; nuestro SMA podrá
adaptarse a los cambios generados en el servicio, como por ejemplo, no todos los
servidores trabajan de la misma forma, es aquí donde está la adaptabilidad; y por último,
la inteligencia estará presentada en cada uno de los agentes y en la manera en que
realicen sus acciones, de manera coherente, racional y adaptable

Respecto a los sistemas multiagentes, son un sistema conformado por dos o más
agentes que trabajan de manera colectiva, que son capaces de tomar la iniciativa,
compartir conocimiento, cooperar, negociar, y comprometerse con metas comunes. Por
lo contrario, los sistemas inteligentes son un programa de computación que cuentan con
conciencia, inteligencia, memoria, aprendizaje y reglas de actuación, haciéndolos
capaces de realizar acciones de manera autónoma y flexible en algún entorno para
alcanzar los objetivos.[2],[3]

El porqué utilizar un sistema multiagente es debido a las características que tienen


los agentes, son muy versátiles para llevar a cabo las acciones esperadas, y muy
adaptable al área del pentesting ya que al dar una configuración inicial al agente, este
tiene la habilidad de aprender sobre la marcha, otro punto importante es que las
configuraciones de los servidores puede variar por lo tanto no siempre serán las mismas
condiciones para poder ejecutar el escaneo de vulnerabilidades, lo que también es un

31
Innovaciones Tecnológicas en las Ciencias Computacionales

ambiente perfecto para los agentes ya que tomarán las decisiones pertinentes y
aprenderán un nuevo patrón que puede ser utilizado a futuro.

3 Ataques a servicios web

Los ataques aprovechan una vulnerabilidad en el sistema para obtener un beneficio,


causando un efecto negativo en la seguridad del sistema. Ataques como Denegación de
Servicios (DoS), Denegación de Servicios Distribuidos (DDoS), Inyección SQL, fuerza
bruta, entre otros, se llevan a cabo mediante programas maliciosos, acceso web no
autorizado, entre otros.[4],[5]

Un ataque suele pasar por 4 fases al momento de ser ejecutado:[6]

1. Reconocimiento.
2. Exploración.
3. Obtener acceso.
4. Mantener el acceso.

En la fase de reconocimiento estará el agente Conexión, el cual tiene como función,


enviar paquetes ICMP para determinar que haya conexión con el servidor. Si la
respuesta es positiva, el agente se comunicará con el agente puertos.

El agente Puertos estará en la fase de Exploración, que mediante la información


obtenida por el agente conexión, hará un mapeo de puertos para detectar si el puerto 80
o 443 están abiertos, para poder realizar el ataque DDoS.

En la fase de obtener acceso, empieza la explotación de vulnerabilidades mediante


el agente DDoS que realizará dos ataques, ping de la muerte e inundaciones http,
tratando de inhabilitar el servicio.

Del mismo modo, el agente DDoS estará en la fase de mantener acceso, debido a
que mientras el agente Conexión aún detecte el servicio, el agente DDoS tendrá acceso
para seguir vulnerando el sistema.

Cabe mencionar que existen múltiples tipo de ataques web, pero en nuestro caso, el
ataque en el cual se centrará este artículo será DDoS, abordando dos tipos de ataques,
ping de la muerte e inundaciones por medio del protocolo HTTP.

3.1 DDoS

El ataque de denegación de servicios distribuidos (DDoS), trata de inundar el servicio


desde diversos dispositivos, mediante el bombardeo de solicitudes simultáneas para
agotar el ancho de banda y lograr su objetivo de inhabilitar el sistema.[7]

32
Innovaciones Tecnológicas en las Ciencias Computacionales

Estos ataques, suelen ejecutarse en 3 distintas maneras:[7],[8]

● Los ataques de volumen donde el ataque intenta desbordar el ancho de banda en


un sitio específico, como inundaciones de UDP.
● Los ataques de protocolo donde los paquetes intentan consumir servicios o
recursos de la red, como inundaciones SYN, y ping de la muerte.
● Los ataques de aplicaciones donde las peticiones se hacen con la intención de
“explotar” el servidor web, mediante la capa de aplicación, como inundaciones
HTTP, low and slow attacks.

De las tres formas de ataques existentes solo se enfocarán en dos tipos, ataques de
protocolos y ataques de aplicaciones.

La razón por la cual se decidió centrarse en los ataques de denegación de servicios


distribuidos es porque actualmente los ataques de DDoS representan un riesgo
inminente para cualquier servidor que esté a disposición de Internet, ya que
normalmente este tipo de ciberataques son usados exageradamente para provocar
tiempos de carga absurdos, o sitios a los que no se podrá acceder porque el servicio está
sobresaturado, lo que los vuelve una amenaza, ya que actualmente el que un sistema
web quede fuera de operaciones, significa desde pérdidas de información, credibilidad,
o en el peor de los casos pérdidas monetarias, por lo cual un administrador de red debe
tener en cuenta este tipo de sucesos para así tener un plan de prevención, ya que
cualquier sitio web es vulnerable a una denegación de servicios. La idea principal de
este artículo es el diseño de un software que realizará ataques DDoS a servidores para
encontrar las vulnerabilidades y notificarlas al administrador de red, para que el
administrador se encargue de posteriormente de corregirlas.

4 Entornos Colaborativos

Los entornos colaborativos tienen como objetivo facilitar los procesos de interacción y
colaboración entre los agentes de nuestro SMA.[9]

Una manera de poder aterrizar el funcionamiento de nuestro sistema multiagente y


decir que a su vez es un sistema colaborativo, es trasladandolo a un lenguaje más
cotidiano, en este caso a un entorno deportivo como lo es el fútbol. En dónde el equipo
sería representado por el sistema multiagente y los jugadores vendrían siendo los
agentes, cada uno fue diseñado para realizar una función específica, los cuales siguen
una estrategia determinada para alcanzar un objetivo, en ese caso, ganar un partido.

33
Innovaciones Tecnológicas en las Ciencias Computacionales

5 Diseño

El SMA tendrá la funcionalidad de realizar la conexión con el servicio web, detectar


puertos habilitados, realizar ataques del tipo DDoS, verificar y extraer datos de los
ataques realizados en algún puerto y mandar una alerta y reporte al administrador.
Dicho sistema, será llevado a cabo un ambiente controlado, donde se podrá controlar
todos los aspectos como el ancho de banda, las configuraciones del servidor, el número
de peticiones y el funcionamiento del SMA , del mismo modo será ejecutado en
ambiente real donde el SMA trabajará directamente con el servidor y trabajará de
manera autónoma.

El objetivo es detectar vulnerabilidades del tipo DDoS en servicios web mediante el


diseño e implementación de un sistema multiagente que realice ataques de la categoría
anteriormente mencionada.

El modelo planteado está compuesto por 5 agentes:

Algoritmo 1. El agente Conexión establecerá la conexión con el servicio web,


mediante el envío de pings a la dirección ip o dominio, mientras el servidor responda,
este llamará al agente Puertos para continuar con su implementación.
función Conexión {
Si “ping” a “Servidor” es verdadero entonces
Escribir “Conexión Establecida”;
Enviar mensaje(Puertos);
Sino
Escribir “Conexión No Establecida”
}

Algoritmo 2. El agente Puertos tendrá la función de hacer un escaneo de puertos,


especialmente al 80 y 443, para detectar si están abiertos o no, para poder realizar los
ataques antes mencionados, de esta forma, ayudará a detectar las vulnerabilidades que
tenga el servicio web.
función Puertos{
Si Conexión ON, entonces
Escanear puertos;
Si hay puertos abiertos,entonces
Enviar Mensaje(DDoS);
Sino

34
Innovaciones Tecnológicas en las Ciencias Computacionales

Escribir “No Hay Puertos Abiertos”


Cerrar Puertos
Sino
Cerrar Puertos
}

Algoritmo 3. El agente DDoS contendrá las técnicas para llevar a cabo ataques del tipo
DDoS, en este caso el ping de la muerte e inundaciones http, con el fin de inhabilitar
los servicios y detectar si el servidor, es vulnerable a estos dos ataques.
función DDoS{
Si Puertos ON, entonces
Realizar ataques;
Si el ataque fue exitoso, entonces
Enviar Mensaje(Memoria) “Ataque Exitoso”;
Sino
EnviarMensaje(Memoria) “Ataque No Exitoso”;
Sino
Cerrar DDoS
}

Algoritmo 4. El agente Memoria obtendrá información de los ataques realizados, como


los puertos abiertos, hora y fecha en que se realizó el ataque, tiempo del ataque y
dirección ip o dominio atacado.
función Memoria{
Si DDoS manda mensaje a Memoria, entonces
Guardar datos;
Enviar Mensaje(Interfaz) “Hay Vulnerabilidades”;
Sino
Enviar Mensaje(Interfaz) “No Hay Vulnerabilidades”;
}
Algoritmo 5. El agente Interfaz será el encargado de mandar las alertas y reportes al
administrador sobre las vulnerabilidades que el servicio web tenga, con el fin de que
pueda corregirlas para tener una mayor y mejor seguridad.
función Interfaz{
Si recibe mensaje de Memoria, entonces
Enviar alerta al administrador

35
Innovaciones Tecnológicas en las Ciencias Computacionales

Sino
Cerrar Interfaz
}

Fig. 1. Un diagrama de flujo donde se explica detalladamente el funcionamiento de cada


agente, así como su interacción dentro del sistema multiagente.

6 Conclusiones y trabajos futuros


En conclusión destacamos el uso de un sistema multiagente en el área del pentesting,
ya que el uso de un modelo distribuido para la realización de ataques es sumamente
viable ya que al dividir todos los procesos entre los diferentes agentes hace más
eficiente las metodologías para atacar ya que aprovecha las ventajas de la IA
distribuida.

36
Innovaciones Tecnológicas en las Ciencias Computacionales

Cabe mencionar que la siguiente etapa se enfocará en la codificación y validación


del sistema multiagente, al finalizar la etapa de desarrollo, se proseguirá con la etapa
de pruebas la cual tiene como objetivo el observar el comportamiento y funcionamiento
del sistema multiagentes propuesto, para posteriormente dar a conocer los resultados
obtenidos de las pruebas de validación de nuestro proyecto.

Referencias

1. PwC. (2018). GSISS 2018 Proteger la información y prosperar en una economía digital.
Recuperado de https://www.pwc.com/mx/es/servicios-consultoria/archivo/gsiss-
2018.pdf?utm_source=Website&utm_medium=DescargaPDF
2. Ramirez Benavides, K.D. Introducción a los Agentes Inteligentes y Sistemas Multi-Agente.
Recuperado de
http://www.academia.edu/3130264/Introducci%C3%B3n_a_los_Agentes_Inteligentes_y_Si
stemas_Multi-Agente
3. Guerra, A. (2013). Agentes Inteligentes. Recuperado de
https://www.uv.mx/aguerra/documents/2013-ia2-01.pdf
4. Mieres, J. (2009). Ataques informáticos. Debilidades de seguridad comúnmente explotadas.
Recuperado de
https://www.evilfingers.net/publications/white_AR/01_Ataques_informaticos.pdf
5. NEC. What constitutes a cyber attack?. Recuperado de
https://www.nec.com/en/global/solutions/safety/info_management/cyberattack.html
6. Graves, K. (2007). Ceh: Official certified ethical hacker review guide: Exam 312-50. John
Wiley & Sons. Recuperado de
http://mirror.thelifeofkenneth.com/sites/qt.vidyagam.es/library/Security/ceh-official-
certified-ethical-hacker-review-guide-exam-312-50.9780782144376.27422.pdf
7. Cisco. What Is a DDoS Attack?. Recuperado de
https://www.cisco.com/c/en/us/products/security/what-is-a-ddos-attack.html
8. Imperva Incapsula. DDoS Attacks. Recuperado de https://www.incapsula.com/ddos/ddos-
attacks.html
9. Martínez Carreras, M. A. (2005). Diseño de un Entorno Colaborativo y
su Aplicación a Plataformas de Aprendizaje. Recuperado de
https://www.tesisenred.net/bitstream/handle/10803/10929/MartinezCarreras.pdf?sequence=
1

37
Innovaciones Tecnológicas en las Ciencias Computacionales

Control de Inventario usando RFID y Particle


Photon
Jesús Antonio Palomares Juárez1, Aldrin Barreto Flores,
Salvador Eugenio Ayala Raggi3, Verónica Edith Bautista López4
123
Facultad de Ciencias de la Electrónica,
4
Facultad de Ciencias de la Computación, Benemérita Universidad Autónoma
de Puebla, 4 Sur #104. C.P. 72000; Puebla, México
1
[email protected]

Resumen: El siguiente trabajo se enfoca en la propuesta de aportar una mejora


en la gestión de inventarios para el Laboratorio del Bioterio "Claude Bernard” el
cual actualmente cuenta con un control manual de inventarios y esto puede
provocar que con el paso del tiempo sus instalaciones sean más propensas a
contraer pérdidas de material y con ello pérdidas económicas, al igual que
descontento y malestar en los usuarios finales por la afectación en el desarrollo
de sus actividades e investigaciones. Por ello se ha optado por la propuesta de la
implementación de sistema de control de inventario basado en RFID usando el
Particle Photon que permita monitorear, controlar y registrar los distintos
artículos inventariados en un historial, plasmado una hoja de datos de Excel en
la plataforma Google Drive y así aumentar la efectividad en sus inventarios.

Palabras clave: RFID, Control de Inventarios, IFTTT.

1 Introducción
Desde la última década se ha vuelto más común escuchar el término “nube”, cuando
nos referimos a internet, dicho termino se refiere a lo que está por arriba de nosotros, es
decir, un lugar común donde todos podemos acceder para guardar o compartir la
información que queramos desde cualquier lugar con acceso a Internet. El concepto va
mucho más allá de eso, la nube se convierte ahora en el proveedor de todo y cuando
decimos todo, nos referimos literalmente a cada uno de los miles de millones de equipos
físicos o “cosas” incorporadas con electrónica, software, sensores, etc., que existen hoy
por todo el mundo.[1] Son todas esas cosas con las que convivimos a diario y que antes
no estaban conectadas a la red: vehículos, electrodomésticos, máquinas, ropa, etc.

El potencial de tener todo en un mismo lugar (la nube), abre todo un campo fértil para
el surgimiento de nuevos paradigmas en cualquier ámbito existente, tanto personal
como profesional y dicha demanda por tener acceso a internet todo desde cualquier
lugar ha comenzado a ganar terreno pese a la falta de infraestructura de última
generación. De acuerdo con la Organización para la Cooperación y el Desarrollo
Económicos (OCDE), por medio de un ejercicio de exploración de direcciones IP de
diferentes dispositivos, en una familia media de 4 personas, con dos hijos adolescentes,
tiene 10 dispositivos conectados a internet en su hogar y las estimaciones apuntan a que
este número alcance los 50 dispositivos por hogar para el 2022. [2] Es decir, que existe

38
Innovaciones Tecnológicas en las Ciencias Computacionales

una tendencia de aumento del 500% de que en el futuro todos nuestros dispositivos y/o
utensilios que usamos en el día a día cuenten con conexión a internet.

Anteriormente, la única forma de interactuar con el Internet era utilizar un navegador


web que permitía que la computadora enviará solicitudes a un servidor web que
suministraría información para mostrar. El navegador arrojaría esta información a
través de un monitor y el usuario escribiría texto en su teclado y seguiría con un clic
los hipervínculos salientes.[3] Ahora con un solo inicio de sesión tenemos acceso a todas
nuestras cuentas vinculadas y ser así más productivos y eficientes.

La tecnología de Identificación por Radiofrecuencia, RFID por sus siglas en inglés,


como todas las tecnologías en evolución, se adapta y expande sus posibilidades
potencializando sus fortalezas. Utilizar la nube no es un camino que seguir cuando
hablamos de RFID, es más bien, un paso natural de migración hacia el máximo
rendimiento. Estamos hablando de unir las ventajas únicas de RFID como altas tasa de
lectura de productos y gran alcance, con las ventajas únicas de la nube y los dispositivos
móviles. Una combinación de tecnología única en el mundo, y la mejor noticia es que
no es una tendencia cerrada hacia algún sector, el potencial es abierto hacia el mercado
profesional como al mercado casual [9]. Ahora se pueden conectar todo tipo de sensores
y aparatos a internet. En pocas palabras, el acceso a la nube está transformando la forma
en que los consumidores y las empresas aprenden y se conectan entre sí; sólo basta con
ver el incremento exponencial en ventas de utensilios inteligentes, smartphones,
smartwatchs, smarts TV’s, sistemas de control, cerraduras, cámaras, refrigeradores,
lavadoras… todo está conectado.

El laboratorio del Bioterio "Claude Bernard" actualmente no cuenta con sistemas


automatizados que les permita gestionar su inventario de forma mucho más eficaz, lo
cual lo hace vulnerable a la pérdida de materiales y objetos, que se traduce en pérdidas
económicas. Si dichas pérdidas llegarán a presentarse se pondrían en riesgo las
actividades e investigaciones que ahí se realizan con fines académicos. Por ello se
decide implementar un sistema de control de inventario basado en RFID usando el
Particle Photon.

Con dicha propuesta tecnológica se podrá obtener un control más eficaz de


inventarios en el laboratorio lo cual permitirá una mejor gestión de ID de los artículos
inventariados; a través de la programación en la plataforma Particle, consintiendo así
realizar las lecturas correspondientes a los distintos ID que generarán una base de datos
plasmado una hoja de datos de Excel en la plataforma Google Drive a la cual podrán
tener acceso desde una App en su celular o bien desde un ordenador.

Esta implementación no solo podrá prevenir la pérdida del material, sino que se verá
reflejado en la obtención de un monitoreo constante y control del inventario, además
de que generará un sentimiento de confianza y fortuna a los usuarios del Laboratorio
del Bioterio "Claude Bernard" al tener un mejor manejo de su inventario.

39
Innovaciones Tecnológicas en las Ciencias Computacionales

2 Problema
Implementación de un sistema de IoT basado en RFID para el control de inventario del
laboratorio del Bioterio "Claude Bernard" localizado en la facultad de ingeniería
química de la BUAP
El laboratorio del Bioterio "Claude Bernard" actualmente cuenta con un control
manual de inventarios y esto puede provocar que con el paso del tiempo sus
instalaciones sean más propensas a contraer pérdidas de material. Por ello se decide
implementar un sistema basado en RFID para el control de inventarios usando el Photon
Particle. Dicho sistema permitirá tener un registro en Google Drive de los artículos
inventariados, las cuales dispondrán de un RFID (125kHz), un ID único para cada
artículo, donde a través de la lectura de dicho dispositivo usando el RFID Reader ID-
20LA (125 kHz) se obtendrán datos como: la fecha y hora de registro; un historial
global todos los artículos. Toda esta información podrá ser consultada de manera
remota por el encargado del laboratorio, por medio de una aplicación para dispositivos
móviles Android. En la cual podrá monitorear el estado general del sistema, además de
recibir notificaciones al dispositivo móvil cada vez que se detecte la lectura de un
artículo.

3 Metodología
La metodología desarrollada consta de 4 etapas, las cuales son descritas a
continuación (Fig. 1).

Fig. 1. Diagrama del General del Proceso.

3.1 Búsqueda del protocolo de comunicación del Photon de Particle para hacer uso
del lector RFID Reader ID-20LA de Innovations.
Primordialmente, se realizó la tarea de indagar la forma de comunicar el
microcontrolador Photon[7] (Fig. 1) de Particle, un dispositivo que una vez que es
conectado a Wi-Fi puede ser programado por el IDE de Particle en la nube (Particle’s
Cloud IDE) y de igual manera de forma local desde cualquier IDE de desarrollo para
ARM; asimismo los programas pueden ser guardados y compilados en la nube, con el
lector de RFID ID-20LA (Fig. 2) de Innovations, el cual es un lector de bajo consumo
(máximo de 45mA) el cual puede ser alimentado de 2.8V a 5V, capaz de leer frecuencias

40
Innovaciones Tecnológicas en las Ciencias Computacionales

de 125 kHz, de dimensiones pequeñas (38x40x7mm), con un rango de lectura máximo


de 600mm para tarjetas RFID (Fig. 3) y 180mm para las cápsulas de Cristal (Fig. 4).

Fig. 2. RFID Reader ID-20LA (125 kHz).

Fig. 3. RFID Tarjeta (125 kHz).

Fig. 4. RFID Cápsula de Cristal (125 kHz).

3.2 Pruebas de
comunicación Particle Photon y RFID Reader ID-20LA de Innovations.
Para llevar a cabo la comunicación entre los dispositivos anteriormente mencionados
hicimos uso de las librerías innovations-rfid.cpp y innovations-rfid.h del RFID Reader
ID-20LA, las cuales se encuentran disponibles en la plataforma de ParticleDev, y
desarrollamos un programa que nos permitiera hacer pruebas de su funcionamiento y
verificar que la lectura de información de datos sea la correcta. Para ello implementamos
los dispositivos en una protoboard (Fig. 5) y nos apoyamos del SparkFun RFID Reader
Breakout (Fig. 6), el cual nos facilitó conectar los pines del RFID Reader ID-20LA a la
protoboard.

41
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 5. Implementación de Photon y Fig. 6. SparkFun RFID


lector RFID ID-20LA. Reader Breakout.

Una vez hecho las pruebas para conocer el funcionamiento del lector, se continuó
con la elaboración del código definitivo que permitiría realizar las distintas pruebas de
distancia e identificación. Se experimentó la detección de tres distintos TAG’s de
125kHz que servirían para simular tres artículos del inventario del laboratorio del
Bioterio.

Para ello en nuestras pruebas dos productos registrados en el inventario eran


representados por las cápsulas de cristal (Fig. 4) y uno de ellos no pertenecía a la base
de datos del inventario y se encontraba representado por una tarjeta RFID (Fig. 3).
Cuando el lector muestra una lectura de un TAG exitosa, el LED azul cian del Photon
Particle parpadea 3 veces y al terminar enciende un LED ultrabrillante verde, azul o
rojo acorde a el producto detectado del inventario. Los colores se organizaron de la
siguiente manera: LED Verde - Producto 01 (Fig. 7), LED Azul - Producto 02 (Fig. 8)
y LED Rojo- Producto Desconocido. (Fig. 9).

Fig. 8. Lectura del Producto


02 (Cápsula de Cristal).

Fig. 7. Lectura del Producto


01 (Cápsula de Cristal).

42
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 9. Lectura del producto


desconocido (Tarjeta).

3.3 Envío de notificaciones entre la plataforma Particle & IFTTT.


Como tercer paso en el desarrollo de pruebas se vinculó el registro de cada TAG’s
detectado por el lector RFID con el objetivo de enviar una notificación a un dispositivo
móvil (Fig. 12) haciendo uso de la plataforma de IFTTT (If This Then That); en dicha
plataforma se crearon “Applets” (Fig. 11) los cuales nos permitirán registrar las
detecciones del lector RFID en una hoja de datos de Google Drive como se muestra en
la Fig. 13. Simultáneamente la detección de cada uno de los TAG’s también se ve
reflejada a través de la página de eventos de Particle como se ve en la Fig. 10.

Fig. 10. Registro de Eventos en Particle.

43
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 11. Applet Fig. 12. Notificación enviada por


creado en IFTTT. IFTTT a nuestro dispositivo móvil.

Fig. 13. Hoja de datos generada automáticamente en


Google Drive al detectar un TAG.

44
Innovaciones Tecnológicas en las Ciencias Computacionales

3.4 Monitoreo del inventario vía web a través de una aplicación en MIT App
Inventor 2.
Finalmente, para poder monitorear nuestro inventario desde cualquier parte
desarrollamos una aplicación para sistemas Android en la plataforma MIT App Inventor
2.[4][5][8] Dicha plataforma online nos permite conocer el estado de nuestro dispositivo
Photon así como monitorear y modificar los registros detectados por el lector RFID tal
como lo describen las Fig. 14-20. [6]

Fig. 14. Pantalla Fig. 15. Pantalla de Fig. 16. Pantalla cuando
principal de la carga cuando se presiona el el dispositivo está
aplicación. botón “Actualizar”. conectado.

45
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 17. Pantalla cuando Fig. 18. Pantalla de Fig. 19. Pantalla de carga
el dispositivo está carga cuando se presiona el cuando se presiona el botón
desconectado. botón “Ir a Historial”. “Ver Historial de ID’s”.

Fig. 20. Pantalla de carga cuando se presiona el


botón “Menú Principal”.

4 Conclusiones
La sociedad del siglo XXI cada vez interactúa más y más con la tecnología, a grado tal
que ha pasado a forma parte de nuestro día a día, desde que nos levantamos por la
mañana con el despertador de nuestro teléfono celular, hasta el último instante de
nuestro día al leer las noticias antes de dormir o el clima que hará el día de mañana.
Debido a dicha inmersión cada vez que surgen problemas a solucionar en la sociedad,
ya no solo requiere de soluciones convencionales para enfrentar el problema sino se ve
en la necesidad de implementar soluciones tecnológicas que permitan dar ese extra que
las soluciones convencionales no podrían conseguir.

46
Innovaciones Tecnológicas en las Ciencias Computacionales

La elaboración del presente artículo “Control de inventario usando RFID y Particle


Photon” permitirá la oportunidad de mejorar la ejecución de la gestión de inventarios
en el Laboratorio del Bioterio "Claude Bernard". Dicha solución se plantea a partir de
la oportunidad que podría tener el mejorar el control de inventario manual, que ser más
propenso a pérdidas de material y pérdidas monetarias al gastar más de lo necesario
para reponer el material de trabajo. Con esta solución tecnológica no solo se prevendrá
la pérdida del material sino impactará en la obtención de un monitorio constante y
control del inventario adquirido en el Laboratorio del Bioterio "Claude Bernard"
dejando la puerta abierta a poder emplear esta misma tecnología para distintas
aplicaciones en el laboratorio como la posibilidad de usarla para llevar un control de
identificación de los ratones o bien generar una lista de ingreso y salida del personal
que ingresa al laboratorio.

Referencias
1. R. Khan, K. Ghoshdastidar; A. Vasudevan.: Learning IoT with Particle Photon and Electron,
1° Ed, UK: Packt Publishing, 2016.
2. Organización para la Cooperación y el Desarrollo Económicos (OCDE).: Perspectivas de la
OCDE sobre la economía digital. (2015). Paris.
http://www.oecd.org/sti/ieconomy/DigitalEconomyOutlook2015_SP_WEB.pdf Accedido el
13 de Diciembre de 2018.
3. M. Simon.: Make: Getting Started with the Photon, 1° Ed, San Francisco, CA: Maker Media,
2015.
4. Creative Commons Atribución 4.0 Internacional.: Guía de iniciación a App Inventor. (2015)
https://codeweek.eu/docs/spain/guia-iniciacion-app-inventor.pdf . Accedido el 13 de
Diciembre de 2018.
5. Aplicaciones móviles con APP Inventor.: Curso de Iniciación al desarrollo de aplicaciones
Android con App Inventor 2.
http://www.iescolonial.com/attachments/article/823/Tutorial%20App%20Inventor.pdf.
Accedido el 13 de Diciembre de 2018.
6. Particle.: Particle Device Cloud API. (2018). https://docs.particle.io/reference/device-
cloud/api/. Accedido el 13 de Diciembre de 2018.
7. R. Christopher: Programming the Photon: Getting Started with the Internet of Things (Tab),
1°Ed, USA, McGraw-Hill Educaction, 2016.
8. W. David, A. Hal, S. Ellen, L. Liz: App Inventor 2: Create Your Own Android Apps, 2°Ed,
USA, O’ Reilly Media Inc., 2014.
9. RFID en la era del cloud computing.: http://www.logisticamx.enfasis.com/articulos/66243-
rfid-la-era-del-cloud-computing. Accedido el 28 de Diciembre de 20

47
Innovaciones Tecnológicas en las Ciencias Computacionales

Una estrategia para estimular habilidades de


identificación de figuras geométricas, aplicando la
tecnología lúdica en educación básica.

José Luis Hernández Ameca1, Lilia Mantilla Narvaez1, Carlos Armando Ríos Acevedo1,
Daniel Arenas Romero1
1
Benemérita Universidad Autónoma de Puebla, Facultad de Ciencias de la Computación,
Ciudad Universitaria, Edif. CC03-Laboratorio de Sistemas Robóticos “SIRO”
14 Sur y Avenida San Claudio, Fraccionamiento Jardines de San Manuel, C.P. 72570, Puebla,
Pue.; México.
1
[email protected], [email protected], [email protected]
1
[email protected]

Resumen: La presente investigación describe el desarrollo de un videojuego


didáctico denominado "GEOMETRIX". Se ha diseñado con el enfoque de estimular
el desarrollo de habilidades de identificación de figuras geométricas básicas. La
finalidad es utilizar el videojuego como una herramienta tecnológica lúdica que
refuerce los conocimientos adquiridos en el aula, limitándose a los niveles donde
se deben identificar figuras tales como: cuadrado, circulo, triangulo, rectángulo.
Como resultados se presentan las estadísticas obtenidas después de que un grupo de
estudiantes de 1er año de educación básica utilizo el videojuego, se redactan las
conclusiones y las se hacen propuestas para mejorar en el futuro cercano.

Palabras Clave: Aprender, Conductismo, Enseñar, Figura Geométrica Software


Lúdico.

1 Introducción

De acuerdo al nuevo Plan Nacional para la Evaluación de los Aprendizajes (PLANEA)


que puso en operación el Instituto Nacional para la Evaluación de la Educación (INEE),
a partir del ciclo escolar 2014-2015, en coordinación con la Secretaría de Educación
Pública (SEP) se han obtenido los siguientes resultados en el examen “Planea”, el cual se
aplica cada 3 años a nivel primaria donde: el 8 % de los estudiantes se ubicó en el nivel
IV (nivel sobresaliente). Esto significa que tales estudiantes pueden resolver problemas
en que se requiere calcular el perímetro o el área de figuras regulares e irregulares,
reconocer situaciones en que se requiere calcular el perímetro o el área de determinadas
figuras, así como solo calcular el perímetro o el área de figuras geométricas regulares e
irregulares. Por mencionar algunos aprendizajes relacionados con las figuras. El 15%
alcanzo el nivel III (dominio satisfactorio). El 18% alcanzo el nivel II (logro apenas
indispensable). El 59% obtuvo un nivel I (logro insuficiente).

En base a los resultados mostrados anteriormente, el Sistema Educativo Nacional


(SEN) reconoce que no está siendo capaz de ofrecer a la mayoría de sus estudiantes el
conjunto de aprendizajes clave en el área de Matemáticas. De ahí que el derecho a recibir
una educación de calidad, entendido como el derecho a aprender, no está siendo
garantizado para quienes cursan la educación primaria [1].

2 Planteamiento del problema

48
Innovaciones Tecnológicas en las Ciencias Computacionales

El desarrollo y aplicación de un videojuego lúdico, diseñado para los alumnos del primer
grado de primaria del Colegio Cristóbal Colón de Occidente con clave de trabajo
21PPR1172N. Los cuales presentan como características comunes, padres profesionistas
que en promedio trabajan fuera de casa entre ocho y doce horas al día, lo cual provoca
diferentes fenómenos. Uno de los fenómenos es la falta de acompañamiento por parte de
los padres, en la realización de tareas (ejercicios, problemas, practicas, etc.) asignadas
para la casa. Dada esta problemática los profesores de la institución buscan estimular la
realización de dichas tareas. En este trabajo se muestra el desarrollo e implementación de
una propuesta de solución basada en la teoría del conductismo y tecnologías de software
lúdico.

En base a las estadísticas obtenidas de la página oficial de la SEP, investigaciones sobre


tecnología lúdica y desarrollo de software, el presente trabajo propone mitigar el
problema del bajo aprendizaje que se tiene en el área de matemáticas en la educación
básica, desarrollando un videojuego lúdico que permita al alumno reforzar los
conocimientos adquiridos dentro del aula, se han realizado pruebas en un grupo piloto del
Colegio Cristóbal Colón de Occidente y al final de este trabajo se muestran los resultados
obtenidos.

3 Marco teórico
Las actividades lúdicas aparecen como una alternativa para promover el enfoque de
"aprender haciendo", Mohd Ali demostró una forma de aumentar la absorción de
conceptos por parte de los estudiantes, donde el alumno pueda desempeñar un papel
activo en lugar de ser solo un espectador, utilizando un software lúdico diseñado bajo la
metodología de ingeniería de software [2]. Después de realizar experimentos con
videojuegos lúdicos Aleem y Capretz concluyen que: los juegos de software son un tipo
de aplicación que se usan no solo para entretenimiento, sino también para fines serios que
pueden aplicarse a diferentes dominios, como educación, negocios y atención médica [3].
La Universidad de Salamanca España en su artículo Videojuegos, Consumo y Educación
concluye que los simuladores facilitan el aprendizaje de destrezas concretas y que existe
una gran cantidad de videojuegos “neutros” orientados a la exploración didáctica con un
alto nivel de motivación, de tal manera que los “Juegos Serios” funcionan como nuevos
modos de enseñar y aprender, que se están utilizando en la preparación de diversos
profesionales de distintos campos [4].

Brown, Ley y Standen han desarrollado diferentes juegos serios como apoyo para
personas con discapacidad intelectual en el ámbito de las matemáticas y han realizado
estudios que demuestran el éxito del software lúdico [5].

Un claro ejemplo del éxito del software lúdico es el caso de “Matemáticas con Pipo”
desarrollado por CIBAL Multimedia S.L. diez años atrás con el cual se pueden llegar a
desarrollar habilidades en diferentes temas matemáticos [6].

4 Fundamentos teóricos
La propuesta de este trabajo se sustenta en la teoría de aprendizaje conductista, la cual se
basa en las siguientes características:
• Se aprende asociando estímulos con respuestas.
• El aprendizaje está en función del entorno.
• El aprendizaje no es duradero, necesita ser reforzado.
• El aprendizaje es memorístico, repetitivo, mecánico y responde a estímulos.

49
Innovaciones Tecnológicas en las Ciencias Computacionales

El conductismo está caracterizado por su concepción asociacionista; es decir, crea


conocimiento al relacionar los antecedentes de una situación con sus consecuentes
(estímulo-respuesta) [7].

Los conceptos de esta teoría de aprendizaje son el eje central que se basa en el diseño
del video juego, el cual se muestra a continuación en la siguiente sección.

5 Conceptualización
El objetivo del videojuego lúdico es funcionar como una herramienta tecnológica que
refuerce y estimule el desarrollo de habilidades de identificación de figuras geométricas. El
juego debe propiciar el reforzamiento continuo de los conceptos adquiridos en el aula,
estimular al usuario a no abandonarlo y superar el reto presentado en cada nivel.

La dinámica consiste en guiar al usuario (de entre seis y ocho años) mediante una serie de
instrucciones presentadas antes de comenzar a jugar cada nivel, a continuación, se debe
presionar el botón ¨jugar¨ para acceder al entorno correspondiente. La dinámica del
videojuego continuara hasta concluir los cuatro niveles. Para mantener la atención del
usuario el juego consta de apoyos auditivos (inicio, final de nivel, aciertos y errores) y
visuales (entorno acorde a su percepción de la realidad, colores llamativos e iconos
previamente conceptualizados).

A continuación, se definen los pasos realizados para el diseño del videojuego lúdico, y se
ha utilizado el diagrama de proceso que se muestra en la figura 1.

1. Investigación de la información: se determinan las metodologías y posibles soluciones, se


consultan las diferentes estadísticas, bases de datos, trabajos realizados y teorías de aprendizaje.

2. Diseño de la información: basados en el paso uno se ha optado por utilizar la teoría del aprendizaje
conductista, la cual guía al usuario en una dinámica de acción-reacción.

3. Diseño de la iteración: se diseña y modela el ambiente gráfico, así como los personajes e
iconografía y se determinan las reglas de iteración del juego.

4. Implementación: se programa cada uno de los diseños mencionados en el paso tres y


funcionalidades de la iconografía.

50
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 1. Diagrama de proceso para el diseño del videojuego.

6 Desarrollo
En la figura 2 se muestra una captura de pantalla de la plataforma de desarrollo (Stencyl)
gratuita, utilizada para la creación del videojuego, la cual permite desarrollar ambientes
virtuales en dos dimensiones con un amplio conjunto de herramientas intuitivas. Se basa
en dos lenguajes de programación (Haxe y framework OpenFL) con la ventaja de
producir código fuente, para distintas plataformas desde un único código de
colaboración abierta y compatible con la Interfaz de Programación de Aplicaciones
(API) de flash.

Fig. 2. Captura de pantalla de la plataforma de desarrollo.

Los requisitos mínimos necesarios para la correcta ejecución del videojuego son:
procesador Intel® Pentium® 4 o AMD Athlon® de 64 bits con un sistema Windows 7,
memoria RAM de 2 GB, 42 Mb para su almacenamiento, resolución de pantalla 1024 x
768, Java™ Runtime Environment y Adobe Flash Player.

En la figura 3, se muestra “la pantalla de inicio” del videojuego desarrollado, donde se


pueden observar tres botones correspondientes a las acciones de: JUGAR,
INSTRUCCIONES y el icono de admiración (!). Al presionar el botón JUGAR inicia el
primer nivel, el botón INSTRUCCIONES muestra la dinámica a seguir y las teclas de
control, el botón con el signo de admiración muestra la información de los temas a tratar.

51
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 3. Pantalla de inicio del juego.

En la figura 4, se muestra la pantalla que aparece al presionar el botón ¨jugar¨ de la figura


3, para iniciar cada nivel se debe dar clic en el botón jugar ubicado en la parte inferior de
la pantalla.

Fig. 4. Instrucciones correspondientes al nivel 1 y 2.

En la figura 5, se muestra el entorno grafico del nivel 1, en la parte superior izquierda se


muestran tres iconos de manzanas (representan el número máximo de errores permitidos
antes de reiniciar el nivel), en el extremo superior derecho se muestra la cantidad de
figuras restantes por recolectar, en caso de no recolectar todas las figuras no será posible
superar el nivel.

Fig. 5. Captura de pantalla del nivel 1.

En la figura 6 se muestran las pantallas de los cuatro niveles con los que cuenta el juego.
El reto del primer nivel es recolectar todos los círculos, el segundo recolectar círculos,
cuadrados y rectángulos, el tercero colectar los círculos, rectángulos y triángulos
representados en los árboles y en el cuarto reunir las diferentes figuras que se encontraran
en él camino.

52
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 6. Niveles del videojuego en orden ascendente.

Al finalizar el cuarto y último nivel, se muestra una pantalla de felicitación como se muestra
en la figura 7.

Fig. 7. Pantalla de felicitación final.

El juego permite al usuario hacer múltiples intentos para superar el reto de cada nivel y
abandonar la sesión cuando lo desee.

7 Experimentos
Para probar el funcionamiento del videojuego lúdico, se distribuyó a los usuarios siguiendo
los siguientes pasos:

• Reunión informativa con directivos y docentes.


• Presentación del plan de trabajo a padres de familia.
• Información al docente sobre uso de la rúbrica de seguimiento diario.
• Información por parte del docente a los alumnos sobre el plan de trabajo.
• Aplicación de la prueba diagnóstico.
• Aplicación de la prueba logro.
• Recopilación de información.

Para obtener los resultados sobre el funcionamiento del videojuego se realizaron los pasos
a, b y c, que se describen a continuación:

53
Innovaciones Tecnológicas en las Ciencias Computacionales

a. Antes de utilizar el video juego, se aplicó la prueba diagnostico a los alumnos del
primer grado de primaria de la institución educativa en el periodo escolar (2017-
2018). Se registraron los resultados con la finalidad de medir su habilidad en la
identificación de figuras geométricas.

b. Se proporcionó un archivo ejecutable del videojuego a cada alumno, para ser jugado
en casa durante una semana (lunes a viernes). Se hizo el seguimiento de la rúbrica por
parte del docente y se registraron los resultados.

c. Se aplicó la prueba de logro. Se registraron los resultados con la finalidad de medir la


mejora de la identificación de figuras geométricas.

8 Resultados

El estudio se realizó con un grupo de 20 niños, a los cuales se les aplico la prueba
diagnóstica. Los resultados se muestran en la figura 8. El propósito de la prueba
diagnóstico fue medir la habilidad de los estudiantes para identificar cuadrados,
rectángulos, círculos y triángulos; cabe mencionar que la escala de calificación está en el
intervalo de cero a diez.

Fig. 8. Porcentajes de calificaciones (0-10), obtenidos en la prueba diagnóstico.

Después de haber utilizado el videojuego se aplicó la prueba de logro, donde los usuarios
mostraron mayor habilidad para identificar las mismas figuras que en la prueba
diagnóstico, los resultados de la prueba de logro se muestran en la figura 9.

Fig. 9. Porcentajes de calificaciones (0-10), obtenidos en la prueba de logro.

De acuerdo a los resultados obtenidos de la rúbrica de seguimiento diario aplicada por el


docente, se obtuvieron los resultados que se muestran en la figura 10 que corresponden
al porcentaje de usuarios que lograron completar los cuatro niveles del videojuego.

54
Innovaciones Tecnológicas en las Ciencias Computacionales

4 Niveles concluidos
3

Nivel
2

0
80 10 5 5
Porcentaje de alumnos
Fig. 10. Porcentaje de usuarios que completaron los cuatro diferentes niveles del videojuego.

Comparando los resultados de la prueba diagnostico contra los resultados obtenidos en la


prueba de logro se observó que el 80% de los alumnos que completó todos los niveles del
videojuego, obtuvo mejores resultados en la prueba de logro, en comparación con el 20%
que lo abandonó en algún momento de la sesión.

9 Conclusiones y trabajos futuros


El videojuego lúdico se diseñó, implementó y se probó dentro del Laboratorio de Sistemas
Robóticos (SIRO), una vez caracterizado, se utilizó con los alumnos del 1er grado de
primaria del Colegio Cristóbal Colón de Occidente.

De acuerdo a los resultados al aplicar la prueba diagnóstico (antes de usar el juego) y la


prueba de logro (después de usar el juego), se concluye que el proyecto cumple con el
objetivo de generar un videojuego lúdico que sirva en el ámbito de la educación, como
una herramienta tecnológica que refuerza y estimula el desarrollo de habilidades en el
área lógico-matemática.

Analizando los resultados de la rúbrica de seguimiento diario se concluye que el


videojuego fue relevante a los usuarios porque, cumplió con la finalidad de generar
mayores destrezas de identificación en los temas relacionados con las habilidades
matemáticas, lo cual se corroboro con las calificaciones de las pruebas aplicadas.

Como trabajo futuro se propone implementar niveles que abarquen temas de dimensiones,
volúmenes, proporciones, áreas y perímetros.

Se propone que el videojuego pueda ejecutarse en dispositivos móviles, además de


contener una función que permita medir el grado de comprensión y destreza del jugador,
que muestre a otros usuarios la puntuación obtenida en tiempo real con la finalidad de
motivar la sana competencia entre los jugadores (en línea y múltiples jugadores).

Agradecimientos. Agradecemos a los integrantes del laboratorio SIRO (alumnos y


profesores), que han brindado sus conocimientos, habilidades y experiencias directa e
indirectamente durante el desarrollo de este proyecto. A la facultad de Ciencias de la
Computación de la Benemérita Universidad Autónoma de Puebla. A los directivos del
Colegio Cristóbal Colón de Occidente.

55
Innovaciones Tecnológicas en las Ciencias Computacionales

Referencias

1. Secretaría de Educación Pública (SEP), Instituto Nacional para la Evaluación de la Educación


(INEE) (Junio 2018).
2. Plan Nacional para la Evaluación de los Aprendizajes. Gobierno de México,
http://planea.sep.gob.mx/ba/. (Junio 2018)
3. Mohd, I.: Integrating Playful Activities in Software Engineering.Teluk, Kalong, ISBN: 978-1-
4799-7896-0 International symposium on mathematical sciences and Computing Research
(iSMSC), https://ieeexplore.ieee.org/document/7594033. (2015).
4. Aleem, S.; Capretz, L.F.; Ahmed, F.: Game development software engineering process life
cycle: a systematic review. Brazilian Computer Society. Journal of Software Engineering
Research and Development, pp.4-7, https://jserd.springeropen.com/articles/10.1186/s40411-
016-0032-7. (2016).
5. Felix, F.: Videojuegos, consumo y educación. Salamanca, España: Revista Electrónica Teoría
de la Educación. Educación y Cultura en la Sociedad de la Información, vol. 9, núm. 3, pp. 11-
28,
http://revistas.usal.es/index.php/revistatesi/article/view/16738. (2008).
6. Brown D. J.; Ley, J.; Evett, J.; Standen, P.: Can participating in games based learning improve
mathematic skills in students with intellectual disabilities. IEEE 1st International Conference
on Serious Games and Applications for Health (SeGAH),
https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=6165461. (2011).
7. Pipogames.com. PIPO GAMES Games for kids Fun educational games for Preschool and
Elementary. Islas Baleares España, http://www.pipogames.com/webonline/webingles/. (2018).
8. Leiva C.: Conductismo, cognitivismo y aprendizaje. Costa Rica. Tecnología en Marcha, ISSN
0379-3962, ISSN-e 2215-3241, Vol. 18, Nº. 1,
https://dialnet.unirioja.es/servlet/articulo?codigo=4835877. (2005).

56
Innovaciones Tecnológicas en las Ciencias Computacionales

Metodología para migración entre gestores de bases de


datos: caso MySQL® y MariaDB®

Luis Enrique Velázquez Martínez, Juan Carlos Varela Tecalero, Ana Claudia
Zenteno Vázquez, José Luis Pérez Rendón
Laboratorio Área de Servicios de Red (ASR), Facultad de Ciencias de la Computación,
Benemérita Universidad Autónoma de Puebla 14 Sur Avenida San Claudio Jardines de San
Manuel, Puebla, México 72595
[email protected], [email protected], [email protected],
[email protected]

Resumen. La migración de bases de datos es un proceso robusto y que es


susceptible de errores cuando se resuelve de forma manual, y puede resultar
complejo cuando se trata de bases de datos soportadas en gestores distintos. Estos
errores se pueden evitar con un proceso automático usando una metodología que
sea capaz de realizar la migración usando shell scripting. Se ha encontrado que la
efectividad para mantener consistencia e integridad de la información depende del
establecimiento específico de las correspondencias entre gestores de bases de datos,
así como las versiones y nuevas herramientas de éstas.
Palabras Clave: Bases de Datos, Migración, Script, Servidor.

1 Introducción

En el presente trabajo se muestra el proceso de la construcción de una metodología para


llevar a cabo la migración de bases de datos soportadas en gestores diferentes, con la
intención de mantener la información integra y disponible. Sabemos que migrar datos no
es solo copiar tablas, y mucho menos podemos decir que sea una tarea fácil. Y también
sabemos que son varios los motivos que nos llevan a tomar la decisión para llevar a cabo
una migración, desde reducir costos, optimizar procesos, incrementar la seguridad en el
almacenamiento de la información o hasta cambiar la infraestructura y/o tecnología.

En este trabajo vamos a desarrollar una metodología de migración de bases de datos


entre MySql y MariaDB, dado que contamos con un servidor con Debian que almacena
solamente bases de datos y debido al licenciamiento requerido de MySQL se tiene la
necesidad de mantener la información y usar MariaDB en un servidor con CentOS. En la
sección dos se muestran detalles de algunos trabajos realizados enfocados solamente en
migración. En la sección tres, se desarrolla la metodología de migración, para que en las
secciones cuatro y cinco se comenten los resultados, conclusiones y trabajo futuro

2 Antecedentes

Existen esfuerzos enfocados en la migración de bases de datos tomando en cuenta


diversas plataformas. Por ejemplo, en el trabajo denominado “Metodología para la
construcción de un Migrador universal de bases de datos” [1], se describen los casos de
uso y clases para el análisis y diseño de una metodología universal de una migración. Esta
propuesta está programada en Java y cuenta con interfaz gráfica para la interacción con
el usuario; y, aunque considera varios tipos de bases de datos no lo hace con las

57
Innovaciones Tecnológicas en las Ciencias Computacionales

plataformas que las contienen. Además, se centra en migrar datos y deja de lado objetos
como las vistas o los índices.

Por otro lado, el trabajo denominado “Metodología para la migración de forma segura
de sistemas de gestión de bases de datos relacionales a software libre y estándares abiertos
Caso de estudio: Instituciones y Entidades Públicas del Estado Plurinacional de Bolivia”
[2], centra sus esfuerzos en estudiar las estrategias más utilizados por fabricantes como
Oracle® o Microsoft®.

Queda claro entonces que, en la construcción y diseño de la metodología se deben


considerar las plataformas en que trabajan los gestores y además tener en cuenta, la
estructura de la base de datos original y la resultante después del proceso de migración,
así como la estructura y los datos que se van a tratar

3 Metodología

En el caso particular de los gestores MySQL y MariaDB sobre plataforma Linux, se


propone una metodología de migración que se automatiza, brindando seguridad en la
ejecución de comandos. Se considera el establecimiento de permisos específicos para
tratar archivos y el acceso a la base de datos, además, se usa shell como base para la
ejecución de las tareas.

Para iniciar el proceso de migración, se debe primero identificar al propietario y los


permisos que tiene sobre la información y se deben establecer las carpetas en donde
colocar el archivo que se va a procesar. Es recomendable colocar en los nombres de
carpetas la fecha y hora para identificar fácilmente la información más reciente.

El siguiente paso es tener en cuenta los atributos de la información, los usuarios


propietarios y los permisos que tienen sobre ella para que se mantengan después del
proceso de migración.

La parte crucial del proceso de migración, en este caso, es identificar el mecanismo


de almacenamiento e identificar el formato de los metadatos para realizar la conversión
correspondiente en los tipos de codificaciones de cada gestor y mantener la integridad de
la información. En particular se contaba con un servidor con MySQL que contenía los
mecanismos tradicionales MyISAM e InnoDB; la información fue procesada de tal forma
que ambos formatos se convirtieron a Barracuda en MariaDB. La conversión se realiza
almacenando en variables los datos, previa identificación de codificación del texto para
después realizar el volcado de información en el nuevo formato. Se debe destacar que el
formato de Barracuda es Compressed, lo que eficientiza las consultas y el rendimiento.

Para finalizar, el uso de Shell scripting en sistemas Linux permite automatizar el


proceso descrito en la metodología, atendiendo a las necesidades de la base de datos

4 Resultados

La existencia de sistemas que albergan información en distintos formatos representa


una tarea para los administradores que implica la toma de decisiones en cuanto a qué
información debe mantenerse o no cuando surgen nuevas versiones o gestores de bases
de datos. Una vez tomada esta decisión se centran los esfuerzos en desarrollar
metodologías propias y específicas teniendo especial cuidado en el versionado original
para identificar, diseñar y realizar el proceso de migración, dirigiendo la tarea en la
consistencia de la información.

58
Innovaciones Tecnológicas en las Ciencias Computacionales

5 Conclusiones y trabajos futuros

Actualizar Sistemas Operativos en servidores tiene como consecuencia la


actualización de los componentes en los sistemas que son alojados. Las versiones y
parches de seguridad son cruciales en el proceso de mantenimiento y prestación de
servicios, para efectos de disponibilidad. Se pueden realizar pruebas de efectividad en las
conversiones de codificaciones y una vez asegurada la información se puede pensar en
medir la velocidad en las consultas a la base de datos, ya que una de las características de
Barracuda es tener un formato comprimido para el almacenamiento

Referencias

1. Fernández J. (2009) Metodología para la construcción de un migrador universal de bases de


datos Extraído de http://www.redalyc.org/articulo.oa?id=49622372028
2. Celis, J. (2015) Metodología para la migración de forma segura de sistemas de gestión de bases
de datos relacionales a software libre y estándares abiertos Caso de estudio: Instituciones y
Entidades Públicas del Estado Plurinacional de Bolivia Extraído de
https://repositorio.umsa.bo/handle/123456789/8749
3. MySQL.com (2019) The MyISAM Storage Engine Extraído de
https://dev.mysql.com/doc/refman/8.0/en/myisam-storage-engine.html
4. Bartholomew, D. (2014) Mariadb Cookboook, Packt Publishing
5. Blum R. (2008) Linux Command Line and Shell Scripting Bible, Wiley Publishing, Inc
6. West A.(2018) Practical PHP 7, MySQL 8, and MariaDB Website Databases, Apress

59
Innovaciones Tecnológicas en las Ciencias Computacionales

Diseño Thinking para resolución de problemas

Judith Pérez Marcial, María del Carmen Santiago Díaz, Gustavo Trinidad Rubín Linares,
Ana Claudia Zenteno Vázquez
Facultad de Ciencias de la Computación, Benemérita Universidad Autónoma de Puebla.
{judith.perez, marycarmen.santiago, gustavo.rubin, ana.zenteno}@correo.buap.mx

Resumen: La etapa de diseño de un software es fundamental y en muchas


ocasiones es ésta la más importante en el desarrollo de un producto. En el presente
trabajo se analizan las metodologías de Pensamiento de Diseño y Diseño Centrada
en el Usuario, con el objetivo de revisar las técnicas de diseño a través de las cuales,
se definen soluciones innovadoras útiles, usables y deseables en colaboración con los
usuarios; mejorando el entendimiento del usuario, los requerimientos de sus
actividades, y las mejoras a través de la evaluación, esto durante el proceso de diseño
de un producto. Se inicia realizando una revisión bibliográfica de los métodos más
característicos para el diseño de producto, se hace un análisis y finalmente se
concluye que los diseñadores deben conocer el sector y la organización para
desarrollar artefactos contextualizados.

Palabras Clave: Diseño Centrado en el Usuario, Pensamiento de Diseño,


Iteración, Innovación, Creatividad, Prototipo.

1. Introducción
La ingeniería de software tiene como objetivo generar software de calidad para dar
soluciones a los problemas del mundo real. Una fase muy importante en el ciclo de vida de
un proyecto es el Diseño del Software, éste es fundamental y en muchas ocasiones lo más
importante en el desarrollo. Es el momento en que los profesionales tienen que aportar sus
conocimientos, experiencia y creatividad para llegar a una solución que cumpla con los
requerimientos. La metodología de Pensamiento de Diseño (PD) se centra en las personas,
considerando multidisciplinariedad, colaboración y definición de requerimientos, los
cuales son caminos que llevan a soluciones innovadoras, mientras que el Diseño Centrado
en el Usuario (DCU) está orientado al diseño de productos más útiles, usables y deseables;
mejorando el entendimiento del usuario, los requerimientos de sus actividades, y las
mejoras a través de la evaluación, durante el proceso de diseño de producto. Esta
investigación plantea una revisión bibliográfica de las técnicas en el diseño de producto.
Cabe señalar que hay evidencias de la pertinencia de los métodos del DCU y PD para la
generación de ideas y la definición y evaluación del producto. Las prácticas propuestas
aquí son un compendio, siendo necesario en futuros estudios definir criterios de selección,
según las necesidades del equipo de desarrollo.

1.1 Diseño Centrado en el Usuario

El DCU es, como su nombre indica, una aproximación al diseño de productos y


aplicaciones que sitúa al usuario en el centro de todo el proceso. Así, podemos entender el
DCU como una filosofía cuya premisa es que, para garantizar el éxito de un producto, hay
que tener en cuenta al usuario en todas las fases del diseño. Además, también podemos
entender el DCU como una metodología de desarrollo: una forma de planificar los
proyectos y un conjunto de métodos que se pueden utilizar en cada una de las principales
fases [2].

60
Innovaciones Tecnológicas en las Ciencias Computacionales

El proceso del diseño centrado en el usuario define que el usuario debe de involucrarse en
todas las fases a lo largo de las que se desarrolla un producto, desde su conceptualización
hasta su evaluación, incluyendo, en muchos casos, su desarrollo.

El objetivo del diseño centrado en el usuario es la creación de productos que los usuarios
encuentren útiles y usables; es decir, que satisfagan sus necesidades teniendo en cuenta sus
características.

Para ello, el proceso y las etapas o fases del proceso son claves en el DCU, ya que nos
ayudan a tener en cuenta a las personas que utilizarán productos o sistemas interactivos.
Estas fases son un elemento fundamental del proceso y ayudan a planificar, y
especialmente a saber, qué hacer en cada momento. Como veremos, estas etapas se llevan
a cabo de manera iterativa hasta alcanzar los objetivos deseados.

El aspecto iterativo es otra de las cuestiones clave del DCU. Así, aunque a grandes rasgos
podemos considerar que hay tres grandes fases en cualquier proyecto de DCU:
investigación y análisis de los usuarios, diseño y evaluación, nunca han de verse como
fases aisladas y sucesivas.

La investigación y análisis de los usuarios permite recoger los requisitos de usuario y, por
ello, es una etapa clave en cualquier proceso de DCU. Si no se conocen los usuarios de una
aplicación o producto, sus necesidades, limitaciones y deseos, es prácticamente imposible
dar una respuesta adecuada a dichas necesidades y deseos teniendo en cuenta sus
limitaciones y características.

Otro aspecto importante es el contexto de uso. Por ello, muchas de las metodologías del
DCU, sobre todo las referentes a la recogida de requisitos de usuario, se basan en la
observación del usuario en su contexto natural. Esta consideración del contexto como
elemento clave es cada vez más relevante con las tecnologías móviles y ubicuas.
Las fases de diseño y evaluación son posteriores a la investigación de usuarios, y son
esencialmente iterativas. Los requisitos de usuario se traducen habitualmente en perfiles,
personas, escenarios y/o análisis de tareas, y todo ello alimenta la fase inicial del diseño:
el diseño conceptual.

El diseño de un sistema interactivo debe satisfacer las demandas de los usuarios que lo van
a utilizar. Para lograr un buen diseño, deberemos partir de un análisis profundo del contexto
donde se desarrolla el trabajo. Para ello deberemos analizar las características, las
actividades que realiza y el escenario donde se desempeñan los usuarios, permitiendo
conocer los requisitos que se deben satisfacer en el diseño del sistema.
Otro factor importante a tener en cuenta en el diseño son las tareas que realizan los usuarios.
Nuestra forma de actuar está dirigida por objetivos, como se refiere en el modelo de
Norman. Debemos de analizar que las personas no realizan su trabajo de forma aislada,
sino que se ven condicionadas por el escenario donde se desempeña esta labor. Los
aspectos más relevantes a tener en cuenta se toman del entorno físico, el cual es
fundamental para poder trabajar. Deberemos prestar atención a las características
ergonómicas del mismo (tipo de ubicación, iluminación, espacio, etc.) así como las
peculiaridades del entorno (ruido, contaminación, calor, etc.). El entorno social implica el
trabajo dentro de un grupo donde existen normas de comportamiento.

El diseño es un enfoque multidisciplinar para el desarrollo de productos basados en las


necesidades humanas, que busca entender mejor al usuario objetivo y sus actividades,
permitiendo diseñar, evaluar y mejorar las propuestas de diseño, a través de todo el proceso
de diseño y con el propósito de crear productos más útiles y usables. De hecho, las prácticas
del DCU han sido formalizadas por los estándares internacionales ISO 9241-110 (2006),
que lo definen como un enfoque para el desarrollo de sistemas interactivos, haciendo que

61
Innovaciones Tecnológicas en las Ciencias Computacionales

los sistemas sean utilizables y útiles, centrándose en los usuarios, sus necesidades y
requerimientos, mediante la aplicación de los factores humanos, la ergonomía, el
conocimiento y las técnicas de usabilidad, mejorando la efectividad y eficiencia, el
bienestar, seguridad y salud humana, la satisfacción del usuario, la accesibilidad, la
sostenibilidad y contrarresta posibles efectos adversos de su uso en la salud humana, la
seguridad y el rendimiento[9].

Así mismo, los métodos del DCU posibilitan el diseño de productos más deseables, entorno
a la experiencia del usuario (UX); para introducir al mercado productos con un valor
hedónico, que satisfagan las necesidades, metas y sentimientos de los usuarios desde la
responsabilidad social, con sentido para las personas que los usan en términos sociales,
políticos y culturales. [6]

1.2 Pensamiento de Diseño

El pensamiento del diseño es diferente de otros enfoques del diseño, ya que se centra en el
proceso, en lugar de en el producto o, dicho de otra manera, se enfoca en la resolución de
problemas, pero no comienza con ninguna solución previa.
Es precisamente, a la hora de resolver donde se encuentra un punto de equilibrio entre la
lógica y la creatividad, ambas necesarias, pero con funciones diferentes. Así, su punto de
partida es que el proceso de pensamiento lógico desempeña un papel esencial cuando hay
un conocimiento sobre él que se construye, pero que se requiere un pensamiento creativo
cuando es necesario generar nuevo conocimiento o abordar los problemas de un modo
diferente a como se había hecho antes. El pensamiento del diseño se sitúa, por tanto, en
una posición intermedia que permite conciliar pensamiento lógico y pensamiento creativo
en el proceso de diseño.

Para Brown, el pensamiento del diseño es una metodología que impregna todo el espectro
de actividades de innovación con un espíritu centrado en las personas, y es, sobre todo
“Una aproximación a la innovación que es poderosa, efectiva y ampliamente accesible, que
puede integrarse en todos los aspectos de los negocios y la sociedad, y que los individuos
y los equipos pueden usar para generar ideas innovadoras que se implementen y que por
consiguiente tengan un impacto” [8].

Dos de las principales características del pensamiento del diseño son: Está muy centrado
en el usuario porque sus necesidades se observan e incorporan constantemente a un proceso
de diseño impulsado por el conocimiento y la creatividad.
Es iterativo, pues a través de la investigación, en los usuarios se exploran los resultados, se
refinan y se evalúan, en una constante retroalimentación, que va y viene desde el punto que
originó una solución satisfactoria.

Es, además, social y comunicativo, puesto que se aplica a proyectos realizados en equipo,
donde los miembros han de generar ideas juntos y tomar decisiones. Hace especial hincapié
en la interdisciplinariedad, la multiculturalidad y el intercambio de experiencias entre los
implicados, ya que entiende que todo esto enriquece los resultados.

Es una metodología de resolución de problemas y de descubrimiento de oportunidades de


innovación, aplicable a cualquier ámbito que requiera un enfoque creativo, y que se basa
en los siguientes principios [2]:
Empatía: una observación profunda, empática y multidisciplinar de las necesidades de los
usuarios, incluyendo las emociones.
Imaginación: la búsqueda “optimista” de soluciones inspirándose más en la imaginación
(“lo deseable”) que en el pensamiento analítico (“lo posible”).
Experimentación: la visualización de posibles alternativas de solución mediante la
experimentación, el juego y la construcción de historias visuales y sentidas (storytelling)
en cooperación con los usuarios.

62
Innovaciones Tecnológicas en las Ciencias Computacionales

Prototipado colaborativo: el uso de técnicas de prototipado colaborativo para generar


modelos que ayuden a visualizar las alternativas y validarlas en equipo.
Pensamiento integrador: la capacidad de integración y de síntesis de los factores que
afectan la experiencia de usuario, más allá del producto y con toda su complejidad, en su
interacción con el entorno y la propia actividad que se busca innovar.
Aprendizaje iterativo: la iteración del proceso de observar-crear-prototipar-validar cuantas
veces sea necesario, para aprender en cada paso, hasta encontrar la mejor solución,
partiendo del principio de que la innovación es también un ejercicio de ensayo-error.
Respecto al proceso, se compone de cinco etapas, aunque es importante comentar que no
es lineal, es decir; en cualquier momento podrás ir hacia atrás o hacia delante, incluso saltar
etapas si se considerase lo más oportuno. Las etapas son:
Empatía, para alcanzar con una profunda comprensión las necesidades de los usuarios
implicados en la solución que estemos desarrollando, y también de su entorno.
Define, para seleccionar la información recopilada durante la fase de Empatía y quedarnos
con lo que realmente aporta valor.
• Idea, para generación de un sinfín de opciones.
• Prototipa, para hace las ideas palpables y que sea más fácil visualizar las posibles
soluciones.
• Testea, para probar los prototipos con los usuarios, y así poder identificar mejoras
significativas, fallos a resolver, posibles carencias, etc.

2. Metodología de Desarrollo
La metodología aplicada en este trabajo es de tipo exploratorio. Se basó en las siguientes
etapas: revisión de la metodología del Diseño Centrado en el Usuario y la metodología de
Pensamiento de Diseño, comparación de las metodologías para finalmente realizar un
compendio de ambas. En la Tabla 1 se presentan 8 técnicas que caracterizan al DCU y al
PD.

Tabla 1. Técnicas Diseño Centrado en el Usuario y Pensamiento de Diseño

Diseño Centrado en el Usuario Pensamiento de Diseño


1 Diseño iterativo Storytelling
2 Análisis de actividades-tareas Observación encubierta
3 Observación de contextos de uso Usuarios Expertos

4 Grupos de discusión “Focus groups” Grupos de discusión o "Focus groups"


5 Prototipado Prototipado en Bruto
6 Entrevistas de usuario Entrevistas Cualitativas

7 Diseño participativo Mapa de actores

8 Encuestas Lluvia de ideas

2.1 Técnicas del Diseño Centrado en el Usuario

2.1.1 Diseño iterativo (Iterative design)

Las iteraciones pueden definirse inicialmente como procesos de repetición de actividades


cognitivas en los procesos de pensamiento del diseñador en etapas conceptuales, que tiene
como objetivo edificar ideas desarrolladas para la creación de conceptos a través de
procesos de materialización o representación de las ideas que se piensan, y que pueden ser
dadas en lenguaje gráfico a través de bocetos, o a través de artefactos en tres dimensiones
que permitan generar diálogos de construcción de conocimiento, tanto desde una

63
Innovaciones Tecnológicas en las Ciencias Computacionales

perspectiva cognitiva individual como en ámbitos de interacción con otros individuos


comprometidos en dicha actividad[5].

2.1.2 Análisis de actividades (Task analysis)

Este método se centra en describir las secuencias de acciones durante la realización de una
actividad, permitiendo entender a nivel cognitivo y físico cómo el usuario desarrolla sus
tareas usando el producto y cumpliendo con sus propósitos; se deben aislar los
componentes claves de los comportamientos, describiendo la presentación y respuesta del
producto a las acciones humanas, en el espacio y el tiempo en el que ocurren dichas
actividades Hackos y Redish. Estos flujos de acciones son entonces el modelo de uso y
utilidad que el producto debe soportar. A diferencia de la observación de contextos de uso,
donde se indaga sobre todas las relaciones de los componentes que definen una situación
sociocultural, en este método, la visión se centra en describir las acciones de los actores
“stakeholders” en el desarrollo de las actividades-tareas en un contexto nativo; todo ello
para establecer el cumplimiento de los propósitos de la interacción.

2.1.3 Observación de contextos de uso

La observación de contextos de uso proviene del método de investigación etnográfico, el


cual se centra en describir una cultura y sus prácticas a través de entender el grupo social
desde el punto de vista nativo; para ello, el etnógrafo utiliza diferentes herramientas, siendo
la observación y la entrevista los instrumentos más utilizados. Así, la observación en la
etnografía demanda que el investigador viva presencialmente las experiencias de las
personas o grupos que se están estudiando, dándole relevancia no solo a la perspectiva de
los sujetos, sino centrándose en el contexto físico inmediato, para entablar relaciones de la
situación social en estudio [11].

2.1.4 Grupos de discusión (Focus groups)

Este método consiste en la reunión de un grupo de personas con ciertas características


comunes, que guiados por un moderador exponen y comparten sus opiniones y
percepciones frente a un tema. De esta discusión se obtiene información cualitativa que
ayuda al equipo de diseño a tomar decisiones frente al proyecto [6].

2.1.5 Prototipado

Es un método de simulación para aproximarse y definir la experiencia de interacción del


usuario, el equipo de diseño utiliza materiales disponibles, para comunicar a las partes
interesadas y mejorar fácilmente diferentes conceptos de diseño a través del proceso
iterativo. El prototipado tiene tanto una perspectiva de externalización y de diálogo con el
objeto, como de mediador en los procesos de discusión entre los miembros de un equipo
creativo, con prototipos y especificaciones de alta fidelidad con la misma masa, acabados
y funcionalidad del producto final.

2.1.6 Entrevistas de usuario

Este método consiste en formular preguntas o temas abiertos (semi-estructurados), que


permitan llevar una conversación guiada sobre un tema determinado, para conocer a
profundidad las percepciones, opiniones, deseos y emociones de las personas. Se despliega
a través del diálogo informal, de manera que el entrevistado se sienta cómodo y pueda dar
su opinión sin sentirse juzgado. Resulta eficiente en la etapa formativa del proyecto, ya que
permiten al equipo de diseño indagar cualitativamente acerca del punto de vista de los
usuarios. Así mismo, se puede usar en la etapa acumulativa, después de las evaluaciones
de usabilidad, para profundizar sobre las percepciones de la gente frente a la interacción
con los prototipos. A su vez, se complementa con la observación de contextos de uso, el

64
Innovaciones Tecnológicas en las Ciencias Computacionales

análisis de actividades o para edificar las encuestas.

2.1.7 Diseño participativo

El diseño participativo tiene sus orígenes en los países escandinavos en los años 70´s, con
la participación de la fuerza sindical en los procesos de introducción y diseño de las
tecnologías en los sitios de trabajo, con el propósito de fortalecer la democracia en el
trabajo. El propósito del diseño participativo es la inclusión como expertos de las partes
interesadas (usuarios, investigadores, diseñadores) para producir colaborativamente
herramientas que permitan a las personas desarrollar lo que necesitan o quieren hacer.

2.1.8 Encuestas (Surveys)

Proporciona información fáctica a través de hacer preguntas secuenciales, a una muestra


estadísticamente representativa, posibilitando validar preconceptos o evidenciar
características comunes; sin embargo, se limita el rastreo de elementos desconocidos.
Adaptados para el diseño de productos materiales.

2.2 Técnicas Diseño del Pensamiento

2.2.1 Storytelling

Contar la historia del Proceso, desde la Ideación hasta el Prototipado. El storytelling es una
técnica a través de la cual las personas mejoran su capacidad para conectar con su audiencia
a través de discursos, textos, etc. En el storytelling se capta la atención del público mediante
el cuidado de la gesticulación, la modulación de la voz, el uso de objetos o imágenes y
fomento de la empatía, entre otros.

2.2.1 Observación Encubierta

Permite obtener información objetiva sin interferir y provocar algún tipo de influencia.
Esta actividad consiste en observar a un usuario interactuando con un producto, servicio o
prototipo, sin que sepa que está siendo evaluado. Se puede utilizar en la fase inicial de
Empatía, para observar las reacciones sinceras de los usuarios e igualmente en la fase de
Testeo.

2.2.3 Usuarios Expertos

Técnica que nos permite identificar necesidades que en usuarios medios no aparecerían.
En los usuarios extremos se magnifican las necesidades de cara al diseño o mejora de un
producto o servicio. Al idear para los extremos, estamos generando soluciones para todo
el abanico de usuarios. A veces, al añadir usuarios extremos a la investigación, tenemos
acceso a revelaciones que en otros casos no saldrían a la luz y que son aplicables a mejorar
la experiencia final de todos. Por ejemplo, para el desarrollo de un portal en internet,
usuarios extremos pueden ser aquellos que no estén familiarizados con las nuevas
tecnologías, y aquellos que lo estén completamente.

2.2.4 Grupos de discusión o "Focus groups"

Su objetivo es identificar opiniones, hábitos de comportamiento, dinámicas sociales, y


necesidades sociales por medio de grupos de enfoque. Los grupos de discusión permiten
profundizar y comprender percepciones, valores y creencias individuales y colectivas. Nos
acerca a las maneras en que los sujetos sociales construyen sus experiencias y dan
significado a sus prácticas, a partir de su contexto sociocultural y la relación con el entorno.
Por lo que, un grupo de enfoque es una reunión de personas con características similares,

65
Innovaciones Tecnológicas en las Ciencias Computacionales

para platicar sobre los temas de interés. Se crea un espacio de reflexión social, ya que al
compartir las experiencias se logra una mayor compenetración y comprensión. La sesión
reproduce una dinámica social.

2.2.5 Prototipado en Bruto

Su objetivo es agilizar la definición de ideas o posibles soluciones. El prototipado en bruto


implica acompañar la explicación de una idea con el desarrollo de prototipos rápidos con
cualquier material que se encuentre alrededor. Ayuda a mejorar la interacción entre los
miembros del equipo y permite llegar a definiciones más concisas de las ideas a desarrollar.
Los prototipos se pueden hacer con cartulinas, con cinta aislante, papel, rotuladores de
colores, cajas de cartón, etc.

2.2.6 Entrevistas Cualitativas

Su objetivo es lograr empatía con el usuario. Entender sus motivaciones, emociones y


forma de pensar. Es importante dejar constancia de la entrevista. Generalmente la hacen
dos personas del equipo. Una pregunta y la otra toma apuntes. Si no puede ser así, el
entrevistador puede grabar bajo el consentimiento del usuario entrevistado. Pregunta cosas
concretas, solicita que se describan experiencias que haya vivido, y profundiza en las
respuestas preguntando el ¿por qué?. Presta atención al lenguaje no verbal y no intenta
llenar los silencios, ya que la persona puede estar reflexionando para profundizar en una
respuesta. No sugiere posibles respuestas, ni pregunta cosas que se puedan responder con
monosílabos. Pregunte de forma neutral, ya que si se muestra alguna opinión sobre algo,
el usuario puede entender que hay respuestas correctas e incorrectas.

2.2.7 Mapa de Actores

Permite identificar a los usuarios que participan en el uso de un producto o servicio. El


mapa de actores o stakeholders refleja de forma gráfica las conexiones que existen entre
los distintos usuarios que componen un servicio. Esto ayuda a tener una imagen clara sobre
los usuarios que intervienen en el mismo, de cara a la identificación de las personas a
investigar en la primera fase del proceso, o para estructurar la definición de las
funcionalidades de la solución final.

2.2.8 Lluvia de Ideas

Permite generar el mayor número posible de ideas. La lluvia de ideas sirve para generar un
gran número de opciones. Es la actividad clave en la generación del grueso de ideas sobre
las que se trabajará durante el proceso. Serán las respuestas a las preguntas "¿Cómo
podríamos...?".
Para ello, suele ayudar ponerse objetivos, por ejemplo, dedicar 15 minutos a cada pregunta,
y alcanzar un objetivo de 50 ideas por cada una de ellas.

Por otro lado, el Moving Worlds Institute define el Diseño Centrado en usuarios como “una
mentalidad y herramienta para aplicar junto con el pensamiento de diseño y crea un
impacto positivo a largo plazo para los usuarios de la solución” [5], tomando como base
muchos de los principios del pensamiento del diseño. El diseño centrado en el usuario
consiste en 3 fases: Inspiración, Ideación e Implementación.

Por su parte, el Pensamiento de Diseño, es un proceso con el cual se resuelven problemas


de una manera creativa [4]. Se utiliza para el desarrollo de productos comerciales, pero ha
ido evolucionando hasta ser utilizada en distintas industrias y sectores para el desarrollo de
servicios, procesos o incluso para enriquecer la propuesta de valor de los negocios. Está
compuesto por 5 fases: Empatizar, Definir, idear, Prototipar y Probar.

66
Innovaciones Tecnológicas en las Ciencias Computacionales

3. Resultados
Existe equivalencia en las fases de desarrollo de las metodologías DCU y PD, la primera
fase de PD, pretende comprender las necesidades de los usuarios o beneficiarios a los que
va dirigido tu producto o servicio y en la fase definir, se obtiene una declaración del
problema con base en las necesidades identificadas. Ambas fases corresponden a la fase
de Inspiración del DCU, pero en este último se hace un mayor énfasis en incluir a cualquier
experto, actor clave o tomador de decisión para la comprensión de los requerimientos. Por
otro lado, la fase de Ideación es la misma en ambas metodologías, dando soluciones
innovadoras a problemas identificados mediante distintas técnicas como lluvia de ideas o
preguntas. El prototipar y probar, últimas fases del PD, corresponden a
la Implementación en DCU.
La diferencia entre ambas metodologías es el número de sus fases, aunque hemos visto su
equivalencia entre ellas. Finalmente, la elección dependerá del tipo de proyecto que se
desee emprender; tal como un producto comercial, un servicio o una innovación social.
Además de que las técnicas que se implementan en ambas técnicas son las mismas, se
adaptan a las características de las metodologías.

4. Discusión y conclusiones
Las etapas iniciales en el desarrollo de productos son procesos de solución de problemas
de las organizaciones, en un ambiente con alto grado de incertidumbre, donde se genera la
idea, se define el producto, se evalúa la viabilidad, y se justifica desde la perspectiva del
negocio. Así, en las etapas iniciales se responde qué producto se va a hacer, para quién,
por qué se va a hacer y cuáles son los atributos que puedan dar el éxito en el mercado; y es
aquí donde la investigación y los métodos del diseño pueden ser una manera efectiva para
responder a estas inquietudes estratégicas. En el presente documento se destaca la
pertinencia de los métodos del diseño centrado en el usuario y del pensamiento de diseño,
permitiendo al equipo de diseño tomar decisiones asertivas entorno a los contextos de uso
y teniendo en cuenta el parecer del usuario objetivo. En conjunto, se evidencia que los
métodos del diseño pueden ser una manera efectiva para desarrollar productos materiales
más útiles, usables y deseables; basándose en el estudio de los contextos de uso, reduciendo
tiempos y la incertidumbre de la aceptación de los productos por parte del usuario.

Referencias
1. Adams, D.; Nelson, R. y Todd, P. (1992). Perceived usefulness, ease of use, and usage of
information technology: a replication. MIS quarterly, 227-247.
2. Aguilar J. y Trujillo, M. (octubre de 2012). Integración de modelos de gestión de la innovación
y el diseño desde una perspectiva de las capacidades organizacionales. III Congreso de Gestión
Tecnológica, Medellín Col. Recuperado de
http://www.cogestec.info/system/app/pages/search?scope=searchsite&q=agular+y+trujillo
3. Howard, Z. Davies, J. (2011) “From Solving Puzzles to Designing Solutions: Integrating Design
Thinking into Evidence”. En
http://ejournals.library.ualberta.ca/index.php/EBLIP/article/view/12195/9399
4. Ramos, C. (2017) “Entendiendo Design Thinking y conociendo sus técnicas. #Agilidad
#DesignThinking” En: https://cristinaramosvega.com/entendiendo-design-thinking-
conociendo-tecnicas/
5. Hoover, C. (2019). Human-Centered Design vs. Design-Thinking: How They’re Different. 20
Agosto 2019, from https://blog.movingworlds.org/human-centered-design-vs-design-thinking-
how-theyre-different-and-how-to-use-them-together-to-create-lasting-change/
6. R. Pelta. "Design Thinking" Universitat Oberta de Catalunya, España, recuperado en:
http://openaccess.uoc.edu/webapps/o2/bitstream/10609/75946/Design_thinking.pdf Consulta

67
Innovaciones Tecnológicas en las Ciencias Computacionales

[23/04/2019]
7. Beausoleil, A. (2012). Design Thinking, Innovation and Business Incubators: A Literature
Review. University of British Columbia; INDS 530B. August 2012.
8. Brown, T. (2008). Design Thinking. Harvard Business Review. Junio, 2008 Pp. 84-9
9. Norman, D. (2004). Emotional Design: Why We Love (or Hate) Everyday Thnigs. NY, NY:
Basic Books.
10. Nielsen, J. (2012). Usability 101: Introduction to Usability: Nielsen Norman Group. Recuperado
de http://www.nngroup.com/articles/usability-101-introduction-to-usability/ [Octubre 27,
2018].
11. Spradley, J. P. (1980). Participant observation. Orlando FL.: Wadsworth Group.

68
Innovaciones Tecnológicas en las Ciencias Computacionales

Análisis de Estabilidad en Algoritmos de Caminata de Robots


Humanoides

Yeiny Romero Hernández, María del Carmen Santiago Díaz, Gustavo Trinidad
Rubín Linares, Martín Otamendi Torres
1
Facultad de Ciencias de la Computación, Benemérita Universidad Autónoma de Puebla.
1
{marycarmen.santiago, gustavo.rubin, yeiny.romero } @correo.buap.mx,
2
[email protected]

Resumen. Los robots humanoides fueron hechos para imitar los movimientos de
las personas, dentro de la clasificación de los robots humanoides se encuentran los
robots bípedos que son los que tienen solo dos extremidades, para lograr el
movimiento uniforme y estable en dichos robots se procede a tomar ciertos
parámetros que influyen en la estabilidad, El presente trabajo tiene como objetivo
analizar algunos algoritmos que mantienen el movimiento del robot estable
mediante determinados parámetros, para finalmente hacer una propuesta sobre el
camino a seguir para lograr la estabilidad en dichos robots.
Palabras Clave: Analisis, Estabilidad, Caminata, Robot humanoide.

1 Introducción

Un alto porcentaje de los robots humanoides que se implementan hoy en día intentan
imitar la caminata humana para desplazarse e interactuar con el medio que les rodea.
Dentro de los robots humanoides se encuentra el robot bípedo que es capaz de moverse
por cualquier tipo de entorno, el movimiento de piernas humanas comúnmente es tomado
como referencia para la locomoción bípeda, por lo tanto, es importante procesar los datos
del movimiento de la marcha humana utilizando minería de datos, y con los resultados
generar una marcha robótica bípeda similar al caminado humano [7].
Las aplicaciones potenciales para los robots bípedos pueden variar desde la realización
de trabajos peligrosos hasta aplicaciones médicas como es el diseño de exoesqueletos y
prótesis para personas con discapacidad motriz. Este tipo de robot reproduce de manera
aproximada a el mecanismo de caminata humana [9].
En los robots bípedos y humanoides se busca realizar una caminata dinámicamente
estable y el robot debe ser capaz de sortear las circunstancias del medio en el que se
desempeña. Se han realizado investigaciones enfocadas en la implementación de
controladores que estabilicen la marcha basados en el criterio “Zero Moment Point”
(ZMP) y en el movimiento del centro de masa [1].

El criterio de estabilidad basado en el ZMP establece que, si éste se mantiene dentro de


un área denominada “polígono de soporte”, se asegura la estabilidad de la marcha y se
desarrolla un esquema de control dividido en tres grupos de controladores, los cuales son:
el control de balance del robot, el control del patrón de marcha y el control predictivo de
pisada [1].
La estabilidad de los robots humanoides es un reto al que los investigadores dedican un
gran esfuerzo. En un robot bípedo, el criterio de estabilidad más utilizado por los
investigadores es el de generación de trayectoria para el ZMP (punto de momento cero),
lo que permite establecer la relación que existe entre las posiciones, velocidades y
aceleraciones articulares del robot con los márgenes de estabilidad de la máquina, durante
las fases de locomoción [4].
Los robots bípedos se controlan de manera similar a los manipuladores industriales, con
base en control de trayectorias. Para que el robot mantenga la estabilidad local se han
propuesto otros criterios de estabilidad como el indicador de la rotación del pie, aunque

69
Innovaciones Tecnológicas en las Ciencias Computacionales

la mayoría de los robots humanoides o bípedos utilizan el punto de momento cero. Una
vez que se garantice un criterio de estabilidad, el robot bípedo es capaz de caminar
establemente [2].
Además, se ha demostrado mediante simulaciones numéricas y físicas que ciertos
mecanismos pueden lograr la caminata bípeda sobre planos inclinados de muy poca
pendiente, estos sistemas pasivos pueden crear patrones de caminata estable donde el
proceso de simulación mediante un nuevo modelo matemático adimensional de
estabilidad en el caminador con rodilla, o caminador de tres grados de libertad; permiten
una comparación del movimiento bípedo humano, usada en el análisis de la marcha
humana [3].
Para analizar el movimiento de robot se ha dividido el movimiento de caminata en tres
submovimientos: Balanceo de Cadera (analizado en el plano frontal), el movimiento de
Avance de Pierna y el movimiento de Doblar la Rodilla (ambos en el plano de perfil).
Donde se debe ver cómo evoluciona el mecanismo si de desplaza de un punto de
referencia a otro diferente [5].

Para el diseño y simulación del control de prótesis del miembro inferior es necesario
contar con un modelo matemático, que permita realizar análisis teóricos y simulaciones
antes de ser probado en seres humanos, es común trabajar con robots bípedos. El modelo
dinámico de robots bípedos es obtenido a partir de las ecuaciones de Lagrange, cuya
complejidad crece dependiendo del número de grados de libertad y eslabones que se
consideren [6].

2 Metodología

La utilización de robots humanoides es porque pueden trabajar directamente en los


mismos ambientes que los humanos sin que se deban realizar modificaciones sobre dicho
ambiente; para trabajar con la estabilidad en la caminata, se hace una revisión de los
diferentes métodos o algoritmos que existen, ya que se buscan novedosas formas que
ayuden al perfeccionamiento y optimización de la marcha bípeda en robots.

Algunos autores opinan que para la marcha bípeda dinámica se propone un algoritmo
realizado por Xin y Xiao donde dice que los disturbios del ambiente son eliminados por
el movimiento compensatorio de la parte superior del cuerpo; posteriormente, el error del
CG (Centro de Gravedad) se calcula basado en el error entre el PMC (Punto de Momento
Cero) deseado y el PMC real, así como la relación entre el PMC y el CG para obtener la
trayectoria del CG. Entonces, el movimiento del robot converge a su movimiento de
referencia generando una marcha bípeda estable [2] ver la figura 1.

70
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 1. Algoritmo compuesto

También mencionan una técnica que encuentra automáticamente modos de caminar


estables y rápidos para el humanoide Nao. Una manera de modelar la estabilidad sería
almacenar la secuencia de posiciones intermedias de todas las articulaciones que se
emplean en la realización de un paso, generando tablas de control. Estos robots
humanoides tienen 2 extremidades con 3 articulaciones cada una. Además, tienen
referencias de tres controladores: controlador adaptativo (que controla el tobillo del Pie),
el controlador dentro de la región estable deseada. (usada para ajustar el tobillo de la
pierna de soporte y asegurar una distancia entre el ZMP y el límite de la región estable),
el controlador de retorno (evalúa si el ZMP actual está dentro de la región estable deseada
o si la pierna se encuentra en la fase de balanceo).

La marcha de un robot bípedo, así como la humana, es periódica por tanto para que la
marcha sea lo suficientemente estable y el robot no se caiga todos los actuadores que
intervienen deben estar correctamente sincronizados y acoplados [10] Siguiendo la línea
de los generadores centrales de patrones (CPG), por cada actuador que interviene en la
locomoción se obtiene una función que defina su movimiento en cada paso. Se trata de
modelar estos recorridos con funciones base que queden caracterizadas con los mismos
parámetros de una onda sinusoidal: frecuencia (w), amplitud (A0), fase (β) y
desplazamiento (γ), correspondiendo a la función:

a(t) = A0 ∗sin(wt+β)+γ. donde por cada actuador serán 4 parámetros (1)

Además, se agrega un parámetro balanceo que es el movimiento que realiza el robot para
compensar el peso cuando levanta una de las extremidades durante la marcha; en él
intervienen únicamente los movimientos de cadera y tobillo. Para conseguir un balanceo
suave o pronunciado se fija un movimiento base con unas amplitudes determinadas y se
multiplica el valor de estas amplitudes por una constante llamada amplitud de balanceo,
así se reduce el número de parámetros de nuestra caminata y se manipula de mejor manera
para que ofrezca una gran variedad de parámetros donde buscar.

La estabilidad se mide iterativamente como desviación acumulada respecto de la


trayectoria recta ideal en todo momento, midiendo las oscilaciones tanto a la izquierda

71
Innovaciones Tecnológicas en las Ciencias Computacionales

como a la derecha. Si durante la realización del movimiento el robot se cae no se evaluará


y se asigna calidad nula al movimiento.

Para seleccionar adecuadamente estas funciones base se implementa la marcha en el robot


con el software del fabricante y se miden las posiciones intermedias para cada actuador,
consiguiendo los patrones, el algoritmo utiliza esas funciones como base, cambiando su
frecuencia, su amplitud, su desplazamiento y su fase. además, se fijaron los límites
máximos y mínimos para cada grado de libertad, se fijaron los niveles de discretizacion
para cada parámetro dependiendo de su naturaleza. El algoritmo encontró una manera de
caminar estable y rápida.

Otros autores han demostrado mediante simulaciones numéricas y físicas que ciertos
mecanismos pueden lograr la caminata bípeda sobre planos inclinados de poca pendiente,
Estos sistemas suelen denominarse pasivos y pueden crear patrones de caminata estable
para ser usados para mejores diseños mecánicos además de estrategias de control en
máquinas caminadoras activas [3].

Se han realizado simulaciones numéricas sobre algunos modelos para entender las
características dinámicas de la caminata pasiva. Por ejemplo. Goswami et. al. presentan
el extenso modelado de la caminata pasiva con dos grados de libertad, que exhibe la
denominada caminata tipo compás.

Se han desarrollado estudios previos sobre el caminador pasivo con rodillas como lo
hicieron Yamakita y Asano que ofrece el proceso de simulación mediante un nuevo
modelo matemático adimensional y resume los resultados preliminares del estudio de
estabilidad en el caminador con rodilla, o caminador de tres grados de libertad.

Se introduce el modelo dinámico para el caminador pasivo con rodilla y el proceso de


normalización de parámetros; luego se presenta el comportamiento dinámico de un ciclo
típico de caminata pasiva y se sintetizan los principales resultados obtenidos en el proceso
de simulación. [3] ver Figura 3.

Fig. 3. Diagrama de solución del modelo de caminador pasivo con rodilla

Para lograr la estabilidad de la marcha en un robot humanoide es común utilizar el término


ZMP (zero moment point) o punto de momento cero. Que es la posición donde el robot

72
Innovaciones Tecnológicas en las Ciencias Computacionales

no se mueve y las acciones de control se enfocan en corregir el error de posición del ZMP
si este se encuentra fuera rango con el objetivo de estabilizar la marcha.

Lo más común es realizar un control de seguimiento de trayectorias articulares


dinámicamente estables de referencia que son previamente planeadas y calculadas.

Por ejemplo: Jung-Yup Kim desarrolla un esquema de control dividido en tres grupos de
controladores, los cuales son: el control de balance del robot en tiempo continuo (usando
el criterio del ZMP), el control del patrón de marcha (orientación del centro de masa), y
el control predictivo de pisada (prevención de caída).

Kagami, S. et al. propone un sistema de control de las dos coordenadas del ZMP (X y Y)
para realizar una marcha estable del robot humanoide h5 utilizando el torso para
compensar los errores calculados

Por lo que se sugiere que implementen controladores PID (Ganancia proporcional (P),
Integral (I) y Derivativo (D). ) para estabilizar la marcha de un robot bípedo basado en el
control del patrón de marcha empleando las mediciones de la ubicación del ZMP
(obtenidas con sensores de fuerza) donde se corrigen las trayectorias articulares de los
eslabones del robot.

Como la caminata en lazo abierto resulta estable, se tomaron mediciones del ZMP, la
longitud y el ancho del paso de esas caminatas para tener una primer idea de cuál podría
ser esa referencia El primer paso para realizar esta referencia fue conocer cómo se
comporta estadísticamente el ZMP del robot durante una caminata (tanto en soporte
simple como en soporte doble), por lo que se realizó un promedio de quince muestras de
caminatas y se procedió a realizar un análisis de cada una de sus fases, para representar
su comportamiento por medio de un polinomio de segundo grado a través de regresiones
lineales por mínimos cuadrados [1]

Fig. 4. Esquema de control propuesto; donde ZMP denota las coordenadas x, y del ZMP real;
ZMPd indica las coordenadas del ZMP deseado; ZMP es el error en x e y entre el ZMP medido y
el deseado; θC es el vector de ángulos de corrección de los motores del robot; θt representa el
vector de ángulos que se obtienen previamente de una planeación de trayectorias fuera de línea,

De esta manera, cualquier robot lograra una marcha dinámicamente estable si el ZMP se
encuentra dentro del polígono de soporte (entiéndase como el área que contiene un
número determinado de puntos de contacto con el suelo) en cada momento de la caminata.
El esquema más importante usado para el desarrollo de controladores de seguimiento de
trayectorias se basa en ZMP el cual es usado como prueba de estabilidad en el caminado
por varios autores

73
Innovaciones Tecnológicas en las Ciencias Computacionales

Por ejemplo: ZMP ha sido usado para asegurar estabilidad del seguimiento de trayectorias
en el robot WABIAN donde se analizó la marcha del robot con base en estudios de
simulación o experimentación con el robot fijo. Se reportaron los resultados de los
primeros experimentos de caminado del robot Bípedo ITLag, y se describe el
procedimiento necesario para llevar a cabo dicha tarea. Los resultados de las pruebas
experimentales indican que el punto de momento cero asume que el área de contacto con
el suelo es plana y que ejerce suficiente fricción para evitar que los pies se deslicen.[10]

Otro ejemplo del uso del ZMP fue evaluar la estabilidad de la caminata del robot bípedo
mediante un péndulo invertido en 3D, basado en las trayectorias generadas, donde fue
necesario calcular la velocidad y aceleración del COG. Además, de usar Simulink con
librería de SimMechanics, siguiendo las trayectorias propuestas para la cadera y el pie
flotante.[11]

Se mencionan también algunas técnicas de control aplicadas a robots humanoides para


lograr el equilibrio estático y dinámico. Estas técnicas se clasifican dependiendo del tipo
de equilibrio deseado.

Técnicas de control para equilibrio estático. Donde se describen los trabajos para el
régimen estático. Los robots bípedos en su mayoría poseen actuadores en los tobillos,
haciendo más fácil el diseño del control en la caminata.
Para el cálculo del grado de pérdida de equilibrio se utiliza el modelo lineal, en el que se
tiene un punto de equilibrio inestable y la tarea principal del control es mantener el estado
del robot cerca de la vecindad del punto de equilibrio y evitar la caída.[12]

3 Resultados

Como estable se entiende que algo se mantiene sin cambios, sin variaciones; es decir,
bien equilibrado. Luego entonces una vez realizado el análisis de los algoritmos
presentados con anterioridad se ha identificado que existen algunos parámetros que se
pueden tomar en cuenta para generar un nuevo algoritmo con los parámetros más
destacados dado que para lograr la estabilidad se utilizan datos de caminata cero,
movimiento de rodilla, movimiento de cadera, entre otros.

4 Conclusiones y trabajos futuros

Seguir trabajando en la estabilización, parámetros críticos en el diseño y control de robots


humanoides, que variables considerar y empezar a medir los robots físicamente.

Referencias

1. Ontiveros-García, E.; Rocha-Cózatl, Ed: Controlador de postura y marcha de un robot bípedo


basado en el ZMP Memorias del Congreso Nacional de Control Automático ISSN 2594-2492.
WEB: http://amca.mx/RevistaDigital/cnca2018/articulos/JueAT3-01.pdf. Accedido el 20 de
octubre de 2019
2. González Mejía, S; Ramírez Scarpetta, J. M; Avella Rodríguez, E. J: Técnicas de control para
el balance de un robot bípedo: un estado del arte web:
http://www.scielo.org.co/pdf/tecn/v19n43/v19n43a11.pdf Accedido el 20 de octubre de 2019

74
Innovaciones Tecnológicas en las Ciencias Computacionales

3. Roa1, M. A.; Villega, C.; Garzón-Alvarado, D. A: Modelamiento, estabilidad e implicaciones


biomecánicas de la caminata bípeda pasiva con tres grados de libertad web:
https://www.redalyc.org/pdf/643/64327212.pdf Accedido el 20 de octubre de 2019
4. Montes-Franceschi, H.: Estabilidad de un robot cuadrúpedo durante un modo de caminar cuasi-
estático mediante realimentación del ZMP web: https://revistas.utp.ac.pa/index.php/id-
tecnologico/article/view/137/html Accedido el 20 de octubre de 2019
5. Herrera, R.; Cañadillas, F.R.; Jardón, A.; Balaguer, C.: Desarrollo de un Algoritmo de Caminata
para el Robot mini-humanoide MYOD Bilbao ISBN 978-84-15914-12-9 2015 web:
https://www.ehu.eus/documents/3444171/4484749/72.pdf Accedido el 20 de octubre de 2019
6. Velásquez-Lobo, M F.: Control en Modo Deslizante con Estimación de la Perturbación
Aplicado a la Marcha de un Robot Bípedo. Web:
https://inaoe.repositorioinstitucional.mx/jspui/bitstream/1009/249/1/VelasquezLMF.pdf
Accedido el 20 de octubre de 2019
7. Pantoja-Laces, W. A.: Generación de caminata robótica bípeda mediante análisis de datos de la
marcha humana: web:
https://www.cs.cinvestav.mx/TesisGraduados/2015/TesisWilliamsPantoja.pdf Accedido el 20
de octubre de 2019
8. Machado Martínez, J. E.; Modelación y Control de un Robot Bípedo: web:
https://cimat.repositorioinstitucional.mx/jspui/bitstream/1008/347/2/TE%20513.pdf Accedido
el 20 de octubre de 2019
9. Alva-Alcántara, J. H.: Diseño de un Prototipo de robot bípedo con planificación de Trayectorias
con criterio ZMP para su estabilidad al caminar sobre superficie plana: web:
https://es.slideshare.net/JosmellH/tesis-diseo-de-robot-bpedo-con-planificacion-de-
trayectorias-con-criterio-zmp-para-su-estabilidad-75905373 Accedido el 20 de octubre de 2019
10. Ambrosio-Delgado; R.: Control basado en el ZMP usando bases de Groebner para la marcha
de un robot humanoide. Web:http://jupiter.utm.mx/~tesis_dig/13878.pdf Accedido el 20 de
octubre de 2019
11. Alcántara, A.; Henry, Josmell: Diseño de un prototipo de robot bípedo con planificación de
trayectorias con criterio ZMP para su estabilidad al caminar sobre superficie plana. Web:
http://dspace.unitru.edu.pe/handle/UNITRU/9293 Accedido el 20 de octubre de 2019
12. González-Mejía; S.; Ramírez-Scarpetta2; J. M.; Avella-Rodríguez; E. J: Técnicas de control
para el balance de un robot bípedo: un estado del arte. Web:
https://revistas.udistrital.edu.co/index.php/Tecnura/article/view/8152/10423. Accedido el 20
de octubre de 2019

75
Innovaciones Tecnológicas en las Ciencias Computacionales

Minería de Datos como Herramienta de Prevención de


Muertes que Involucran Violencia Intrafamiliar en la
Sociedad Mexicana

María Josefa Somodevilla García, María de la Concepción Pérez de Celis Herrero,


Gustavo Emilio Mendoza Olguín, Yadira Laureano de Jesús
Facultad de Ciencias de la Computación. Benemérita Universidad Autónoma de Puebla. Puebla, Pue.
{mariajsomodevilla, mcpcelish}@gmail.com, {lyon_db, star95ariday}@hotmail.com

Resumen. Las muertes que involucran violencia familiar son preocupantes debido
a que se considera que la familia es el núcleo básico de la sociedad. A partir de las
muertes registradas de los años 2011 a 2017 que involucraron asesinatos donde
hubo violencia familiar como precedente, se aplican técnicas de minería de datos
para descubrir las características de las mismas e identificar grupos vulnerables que
permitan definir acciones que prevengan el aumento de fallecimientos relacionados
con esta causa.
Palabras Clave: Violencia Familiar, Minería de Datos, Fallecimientos, Patrones.

1 Introducción

De acuerdo con la Comisión Nacional de Derechos Humanos (CNDH) [1], la violencia


familiar se define como el acto u omisión único o repetitivo, cometido por un miembro
de la familia, en relación de poder —en función del sexo, la edad o la condición física—,
contra otro u otros integrantes de la misma, sin importar el espacio físico donde ocurra el
maltrato físico, sicológico, sexual o abandono. En los últimos años, en la sociedad
mexicana, la violencia familiar ha dejado de ser un tema tabú [2]. Pasó de considerarse
un tema que debería arreglarse en privado y en la intimidad del hogar hacia la opinión
pública, como resultado de la aplicación de la NOM-190-SSA1-1999 [3]. En la sociedad
mexicana este fenómeno se incrementa, debido al machismo sistemático fomentado desde
el hogar hasta en las expresiones artísticas; hablar de violencia familiar significa en
algunos casos restarle autoridad a la figura paterna (o materna) o bien, involucrarse en el
derecho que tienen los padres de educar a sus hijos de la manera que consideren correcta.
Sin embargo, los sectores típicamente más vulnerables (mujeres y niños) son
empoderados cada día y se atreven a cuestionar y a intentar erradicar estas costumbres.
Lamentablemente, a pesar de los esfuerzos para reducir estos hechos, de acuerdo con
datos del Secretariado Ejecutivo del Sistema Nacional de Seguridad Pública (SESNSP)
[4] del año 2015 al 2019, el número de denuncias por violencia familiar aumentó 40% en
todo el país, alza que en diez estados alcanza niveles de entre 100 y más del 800 por
ciento.
Mientras en 2015 las 32 entidades federativas sumaron 126 mil 816 carpetas iniciadas
por ese delito, el año pasado se contabilizaron 178 mil 561, lo que representa un
incremento de 51 mil 745 indagatorias y por desgracia estas agresiones terminan en
algunos casos con la muerte de algún miembro de la familia.
Con el fin de determinar las causas de la criminalidad y movilizar los diferentes
componentes de la sociedad, cada vez más procesos tratan de apoyar sus acciones de
prevención sobre una base científica es por ello que, los estudios estadísticos en las
sociedades contemporáneas se han convertido en un recurso para explicar las condiciones
y dinámicas de cambio, por medio de la apreciación objetiva del comportamiento de los
individuos con el fin de estimar el estado de los fenómenos sociales tanto deseables como
indeseables; como es el problema que nos ocupa de muertes por violencia familiar. Una
forma muy valiosa para el análisis de los registros estadísticos de los países, es la Minería

76
Innovaciones Tecnológicas en las Ciencias Computacionales

de Datos, ya que es una herramienta de apoyo que permite la exploración, análisis,


comprensión y la aplicación del conocimiento adquirido en el manejo de los grandes
volúmenes de información. A partir de los algoritmos de Minería de Datos se logra
entender tendencias y comportamientos en los datos, permitiendo así la toma de
decisiones basada en el conocimiento.
En este artículo se propone exponer, mediante el uso del software computacional
WEKA, como se puede contribuir a través del uso de técnicas de minería de datos en la
prevención de muertes por violencia familiar en nuestro país, identificando los grupos
vulnerables a la violencia familiar a partir de los datos de fallecimientos del periodo 2011
– 2017 publicados por el INEGI. En el desarrollo de este trabajo se propone dar respuesta
a las siguientes preguntas:
¿Cuáles son las causas de muerte que involucran violencia intrafamiliar?
¿Cuáles son los grupos vulnerables que pueden morir con la violencia intrafamiliar como
precedente?
Si la violencia intrafamiliar es una problemática que se refiere al núcleo familiar en
conjunto, ¿Qué pasa con los hombres?
¿Puede predecirse un riesgo de muerte relacionado con la violencia familiar?
A continuación presentamos a modo de antecedente el contexto del problema y la
necesidad de técnicas de análisis de datos, como lo es la Minería de Datos (MD). Se
introduce el ámbito de competencia de la MD y se describen sus principales
características así como se discuten algunas aplicaciones de esta, en problemas de salud
y sociedad. Una vez hecho esto definimos las propiedades del dataset utilizado y los
procedimientos realizados con los datos. Las secciones posteriores presentan la aplicación
de técnicas descriptivas y predictivas respectivamente. Finalmente, se presentan las
conclusiones obtenidas y los trabajos que pueden realizarse a futuro.

2 Antecedentes

Cuando se habla de violencia doméstica se suele pensar, casi de manera automática, en la


que puede ocurrir entre los cónyuges, sobre todo del hombre hacia la mujer. Menos
estudiadas, pero con consecuencias también importantes en la pérdida de bienestar de los
miembros de la familia son de otros tipos: contra los menores, hacia miembros
discapacitados del hogar, la que se realiza a los ancianos e incluso la que la violencia
ejercida en contra de los hombres en una pareja. Históricamente, en torno a la figura
masculina se ha marcado un estereotipo caracterizado por la fuerza física y por la
insensibilidad, caso contrario al creado para la mujer. Sin embargo, el caso de maltrato al
hombre es mucho más habitual de lo que nosotros pensamos. En este contexto, el análisis
de los registros de violencia intrafamiliar es fundamental en la prevención del delito y de
los desenlaces fatales. Entre otras cosas, porque permite el diseño de políticas y planes de
prevención efectivos. En México este tipo de análisis se ha realizado históricamente
mediante herramientas estadísticas descriptivas o deductivas, considerando
fundamentalmente variables y relaciones primarias. Sin embargo, muchas veces la
estadística descriptiva clásica no refleja la verdadera interrelación de las variables y por
lo tanto, el problema real. Este contexto requiere un tratamiento estadístico más complejo
que nos obliga a evolucionar en el análisis de información criminal.

2.1 Minería de datos aplicada a la comprensión de problemas sociales

La Minería de Datos (MD) es un proceso iterativo de búsqueda de información no trivial


en grandes volúmenes de datos que busca generar información similar a la que podría
generar un experto humano: patrones, asociaciones, cambios, anomalías y estructuras
significativas. La minería de datos descubre relaciones, tendencias, desviaciones,
comportamientos atípicos, patrones y trayectorias ocultas, con el propósito de soportar
los procesos de toma de decisiones con mayor conocimiento. La minería de datos se puede

77
Innovaciones Tecnológicas en las Ciencias Computacionales

ubicar en el nivel más alto de la evolución de los procesos tecnológicos de análisis de


datos. La MD debe su nombre a la analogía entre una montaña y la gran cantidad de datos
almacenados en cualquier empresa [5].

Fig. 1. Taxonomía de las Técnicas de Minería de Datos. Tomada de [5]

Los métodos descriptivos que se muestran en la Fig. 1, se utilizan para encontrar


patrones interpretables que describen los datos. Los métodos de predicción utilizan
algunas variables para predecir los valores desconocidos o futuros de otras variables.
Estos métodos utilizan algoritmos de aprendizaje supervisados como por ejemplo:
algoritmos genéticos, redes neuronales, árboles de decisión y regresión.
Estos métodos utilizan algoritmos de aprendizaje supervisados como por ejemplo:
algoritmos genéticos, redes neuronales, árboles de decisión y regresión. Por otra parte a
diferencia de los anteriores, los algoritmos de aprendizaje no supervisados descubren
patrones y tendencias en los datos sin tener ningún tipo de conocimiento previo acerca de
cuáles son los patrones buscados. Dentro de ellos se encuentran: clustering, análisis de
enlace y análisis de frecuencia.
Existen en la literatura algunas propuestas para hacer uso de la MD en el ámbito de la
salud y la sociología de las cuales, en particular para los propósitos de esta comunicación
mencionamos los siguientes. En la tesis publicada por Galván y Meza [6] en el año 2012
sobre minería de datos para la información de mortalidad en México, donde se contó con
información de los historiales de mortalidad en México de la base de datos del INEGI
entre los años 2000 y el 2009. Para el estudio se realizaron diversos métodos y tareas de
la minería de datos para identificar las instituciones de salud menos eficientes,
ocupaciones peligrosas, violencia familiar como causa de mortalidad y los embarazos de
alto riesgo, con la finalidad de obtener reglas o patrones sobre las características de la
defunción, con el objetivo detectar grupos más vulnerables. Los resultados obtenidos
fueron, en cuanto al sistema de salud en México necesita una renovación y atención
significativa, en cuestión de atención a pacientes y mejores instalaciones. En el sector de
la población con más riesgo, las personas que se dedican al campo y los conductores de
algún medio de transporte. Y por último en las escuelas sigue habiendo casos de
embarazos a temprana edad y a edades muy avanzadas, por lo que se propone concientizar
más a las personas sobre este tema.
Un estudio realizado por Cornejo y González [7] en el año 2017 sobre el
comportamiento de la mortalidad en Chile basado en la minería de datos y análisis
predictivos, con datos de DEIS, del año 1990 hasta el año 2014. El objetivo principal del
proyecto es la utilización de métodos de selección de atributos y algoritmos predictivos
aplicados sobre un set de datos determinado, analizar el comportamiento de la mortalidad
en Chile. En este sentido, mediante la comparación de diversos métodos de selección, así
como de algoritmos predictivos, se pretende mejorar la precisión del estudio con el fin de
obtener resultados realistas. En el cual los resultados obtenidos fue que el tratamiento de
la información resultó ser positiva, ya que se logró generar conocimiento e interpretar a
mayor escala la envergadura del tema. Al manejar una gran cantidad de información, se

78
Innovaciones Tecnológicas en las Ciencias Computacionales

logró dar un sentido coherente al tratamiento de los datos, al enfoque de la investigación


y al análisis de resultados.
Hidalgo [8] presenta un estudio que se basa en el análisis de los clasificadores
supervisados que puedan generar resultados aceptables para la predicción de la muerte y
sobrevida materna, según características de pacientes complicadas durante su gestación
determinada por los expertos salubristas. Los datos recolectados fueron 100 historias
clínicas (HC) de casos de sobrevida y de casos de muerte maternal que corresponden a la
población de la ciudad del Cuzco. En conclusión, se encontraron que las arquitecturas
propuestas presentan una efectividad bastante aceptable, donde cada uno de sus
indicadores en conjunto, tienen un 80% de eficacia, siendo el de mejor desempeño Naive-
Bayer Kernel.

3 Conjunto de datos de aprendizaje

Para identificar los grupos vulnerables a la violencia familiar en los que hubo como
desenlace el fallecimiento de alguno de los miembros del núcleo, se consideraron los
datos de fallecimientos del periodo 2011 – 2017 publicados por el INEGI1. El dataset fue
obtenido de la página oficial del INEGI [9], cabe señalar que el dataset original contiene
las actas de defunción de los fallecimientos ocurridos en México en el periodo estudiado
y entre los atributos de estos existe la mención de los casos, en los cuales en el
fallecimiento hubo implicaciones de violencia intrafamiliar. Está conformado por
4,582,526 registros que comprenden las defunciones desde 2011 hasta 2017. El dataset
está organizado en 59 columnas de las cuales se seleccionaron 7 que contienen la
siguiente información como se indica en la Tabla 1.

3.1 Preprocesamiento del conjunto de datos de aprendizaje

En esta sección se realiza un preprocesamiento del conjunto de datos de aprendizaje. En


el apartado 3.1.1, se trabaja en el contexto de la base de datos original para homogeneizar
valores de atributos que tenían claves diferentes entre los años anteriores y posteriores a
2013. Posteriormente, en la sección 3.1.2, se eliminan atributos irrelevantes y se
discretizan otros para mejorar la dimensionalidad de los datos y de esta manera lograr
mejores resultados en la aplicación de técnicas de aprendizaje.

Tabla 1. Atributos seleccionados.

Consecutivo Variable Descripción Tipo y longitud


1 Causa_def Causa de la defunción char(4)
2 Sexo Sexo del (la) fallecido (a) integer(1)
3 Ocupacion Ocupación del (la) fallecido (a) integer(2)
4 Escolaridad Nivel de escolaridad del (la) fallecido (a) integer(2)
5 Edo_civil Estado civil del (la) fallecido (a) integer(1)
Área urbana-rural de residencia del (la)
6 Area_ur integer (1)
fallecido (a)
7 Edad_agru Grupo etáreo del (la) fallecido (a) char (2)

79
Innovaciones Tecnológicas en las Ciencias Computacionales

3.1.1 Análisis de los registros de defunciones

Se realizó un análisis de los datos de defunciones y se observó que hay diferencias entre
los valores del atributo ocupación entre los años antes del 2013 donde los valores son
diferentes, como se muestra en las Fig. 2 y Fig. 3.
De manera que se procedió a reasignarlos y agruparlos para favorecer el aprendizaje, a
partir de los años 2013 como se muestra en la Tabla 2.

Fig. 2. Muestra de los valores del atributo ocupación del año 2012 y anteriores. Tomado de [10].

Fig. 3. Muestra de los valores del atributo ocupación del año 2013 y posteriores. Tomado de [10].

Tabla 2. Valores ajustados del atributo ocupación.

Grupo Ocupación

Funcionarios, directores y jefes, profesionistas y técnicos,


trabajadores auxiliares en actividades administrativas,
operadores de maquinaria industrial, ensambladores,
ProfesionalesyTecnicos choferes y conductores de transporte, trabajadores en
actividades elementales y de apoyo, comerciantes,
empleados en ventas y agentes de ventas, trabajadores en
servicios personales y vigilancia.
Trabajadores en actividades agrícolas, ganaderas, forestales,
CampArtesanos
caza y pesca, trabajadores artesanales.
Desempleado Busca trabajo, no trabaja.
NoAplicaMenores No aplica a menores de 5 años.

A continuación se ajustaron los grupos etarios, como se muestra en la Tabla 3. Para este
ajuste se consideraron los grupos de edades ya existentes en el dataset original. Después
se agrupó el atributo de causa de muerte en tres principales causas: muerte por arma de
fuego, muerte por objeto punzocortante y muerte por agresión, como se muestra en la
Tabla 4. También se agrupó el atributo de escolaridad en cuatro grupos como se muestra
en la Tabla 5.

Tabla 3. Valores ajustados por grupo etáreo.

Grupo Edad
Infancia De 0 a 9
Adolescencia De 10 a 19

80
Innovaciones Tecnológicas en las Ciencias Computacionales

Juventud De 20 a 24
Adultez De 25 a 64
Madurez Mayores de 65

Tabla 4. Valores ajustados del atributo causa de muerte.

Grupo Causas

Disparo arma corta, disparo arma larga y disparo con otras armas no
Disparo
especificadas.
Cortante Agresión con objeto filoso.
Asfixia, agresión química, ahogamiento, incendio, agresión con
Agresión física objeto no filoso, agresión sexual, abandono, síndrome de maltrato,
golpe y empujón.

Tabla 5. Valores ajustados del atributo escolaridad.

Grupo Escolaridad

Básico Preescolar, primaria y secundaria

Sin escolaridad Sin escolaridad


Menores3años No aplica a menores de 3 años
Bachillerato y mas Bachillerato, profesional y posgrado

Se agrupó el atributo estado civil como se muestra en la Tabla 6.

Tabla 6. Valores ajustados del atributo estado civil.

Grupo Estado civil

Fueron casados Divorciados, viudo y separado

Unión libre Unión libre


Casados Casados
Solteros Solteros
NAaMenores12 No aplica a menores de 12 años

3.1.2 Preprocesamiento de los datos utilizando Weka2

Para comenzar se eliminaron algunos atributos que no se consideraron relevantes para el


análisis y que afectaban la dimensionalidad del dataset. Los atributos considerados
relevantes para el análisis son: agrupador de edad, ocupación, estado civil, área urbana,
causa de defunción, sexo y escolaridad. Posteriormente, con el propósito de encontrar
relaciones entre los datos, y para cumplir con las restricciones de los métodos, se
convierten los atributos numéricos en nominales aplicando el filtro NumericToNominal.
A diferencia de la discretización, solo toma todos los valores numéricos y los agrega a la

81
Innovaciones Tecnológicas en las Ciencias Computacionales

lista de valores nominales de ese atributo. Este proceso aplica debido a que se desea
conservar los valores nominales puesto que son pocos valores.

4 Aplicación de técnicas descriptivas

El propósito de las técnicas descriptivas es el de encontrar relaciones entre los datos. Estas
relaciones después pueden verificarse con la aplicación de otros métodos de esta
naturaleza. En la subsección 4.1 se generan reglas de asociación y posteriormente en la
subsección 4.2 se encuentran grupos entre los datos.

4.1 Reglas de Asociación

Una regla de asociación se define como una implicación del tipo “si X entonces Y”
(X⇒Y), donde X e Y son itemsets o items individuales. El lado izquierdo de la regla
recibe el nombre de antecedente y el lado derecho el nombre de consecuente. Por
ejemplo, la regla {A,B} => {C} significa que, cuando ocurren A y B, también ocurre C.
Se aplicó el método Apriori, el cual se ejecuta dos etapas: identificar todos los itemsets
que ocurren con una frecuencia por encima de un determinado límite (soporte) y entonces,
convertir esos itemsets frecuentes en reglas de asociación de acuerdo a una métrica de
confianza. Para el experimento se fijó minMetric a 0.7 y se obtuvieron las reglas que se
muestran en la Fig. 4.
Una de las desventajas de A priori es que genera muchas reglas siendo muchas de éstas
redundantes. A continuación, se explican las tres que fueron consideradas más
significativas.
1. OCUPACIÓN=CampArtesanos CAUSA_DEF=disparo 157 ==> SEXO=1 152
Donde sexo=1 corresponde a hombres. Esta regla representa a un grupo vulnerable de
hombres con ocupación de campesinos y artesanos, cuya causa de muerte fue disparo.
2. OCUPACIÓN=Desempleado ESCOLARIDAD=básico EDAD_AGRU=adultez 222
==> SEXO=2 202
Donde sexo=2 corresponde a mujeres. Esto representa un grupo vulnerable a la violencia
familiar, el cual está formado por mujeres desempleadas, con escolaridad básica y
adultas.
3. EDAD_AGRU=infancia CAUSA_DEF=AgresionFisica 132 ==>
EDO_CIVIL=NAaMenores12
Esto representa a otro grupo vulnerable que está formado por niños cuya causa de muerte
fue por agresión física.

82
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 4. Reglas de asociación.

4.2 Algoritmos de agrupamiento utilizados

El objetivo de los modelos de agrupamiento consiste en identificar de manera precisa


grupos y, sobre todo, las fronteras de cada uno, de manera que cada ejemplo pueda ser
asociado a un grupo específico, donde sus elementos observan un alto grado de similitud
o cohesión y por otra parte son muy disímiles a los miembros de otros grupos. El
algoritmo más frecuentemente aplicado es KMeans, el cual en términos generales puede
resumirse como: (i) definir un total de k centroides al azar, (ii) calcular las distancias de
cada uno de los puntos de entrada a los k centroides, y asignar cada punto al centroide
cuya distancia sea menor, (iii) actualizar la posición de los k centroides, calculando la
posición promedio de todos los puntos que pertenecen a cada clase y (iv) repetir los pasos
anteriores hasta que los centroides no cambien de posición y, por lo tanto, las asignaciones
de puntos entre clases no cambie. Sin embargo, la cantidad óptima de centroides k a
utilizar no necesariamente se conoce de antemano y deben aplicarse otros métodos para
inicializar el número de los mismos.
Utilizando el algoritmo SimpleKMeans aplicado a 3 centroides, teniendo en cuenta
que se reportan 3 tipos generales de causas defunción, se obtienen los siguientes clusters
como se muestra en la Fig. 5.

Fig. 5. Grupos obtenidos por SimplekMeans

Los clusters obtenidos son los siguientes:


Cluster 0: 1,CampArtesanos,básico,unionlibre,2,adultez,disparo
El primer cluster está conformado principalmente por individuos cuya causa de muerte
fue disparo los cuales son hombres, de ocupación campesinos artesanos con escolaridad
básica, que viven en unión libre, en zona rural y adultos.
Cluster 1: 2,Desempleado,básico,casado,1,adultez,AgresionFisica

83
Innovaciones Tecnológicas en las Ciencias Computacionales

El segundo cluster está conformado principalmente por individuos cuya causa de


muerte fue agresión física de los cuales son mujeres desempleadas, casadas que viven en
zona rural, adultos y con escolaridad básica.
Cluster 2: 1,NoAplicaMenores,Menores3años,NAaMenores12,1,infancia,
AgresionFisica
El tercer cluster está conformado principalmente por individuos cuya causa de muerte
fue agresión física los cuales son hombres de área urbana y niños.
A partir de los 3 clusters obtenidos se puede observar una correspondencia con las
reglas de asociación. Es importante destacar que el error cuadrático medio con k=3 es de
1830 mientras que con k=2 es de 2154 y con k=4 es de 1707.

5 Aplicación de técnicas predictivas

Las técnicas predictivas permiten clasificar instancias de acuerdo a los valores de sus
atributos. Para realizar predicción se utiliza un dataset de entrenamiento que permite
generar un modelo con el cual se realizarán predicciones, utilizando un conjunto de
prueba. En el dataset de prueba el atributo de clase debe estar vacío para que el
clasificador sea el que otorgue el valor correspondiente de acuerdo al modelo de
entrenamiento.
En la Fig. 6 se presenta la aplicación del método select attributes, cuyo propósito es
determinar el conjunto de atributos que mejor predicen la variable de clase.

Fig. 6. Atributos representativos para predecir la clase CAUSA_DEF.

Se utilizaron los métodos Ranker para ponderar atributos atendiendo a sus evaluaciones
individuales e Infogain para evaluar la relevancia del atributo midiendo la ganancia de
información respecto a la clase.
Considerando los atributos anteriormente seleccionados, se realizó predicción de la
clase CAUSA_DEF utilizando el clasificador RandomForest [11] con los parámetros por
defecto. El dataset de entrenamiento fue el obtenido después del preprocesamiento de los
datos mostrado en la sección 3. Para el dataset de prueba se seleccionó un subconjunto
del mismo dataset para probar los resultados obtenidos. El resumen del modelo se
muestra en la Fig. 7 y la presición se muestra en Fig. 8.

Fig. 7. Resumen del modelo obtenido mediante el clasificador RandomForest.

84
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 8. Precisión detallada por clase del modelo. La última fila representa las medias ponderadas.

El porcentaje de clasificación obtenido es aún bajo pero fue el mejor con respecto a J48
utilizando además diferentes opciones de prueba.

6 Resultados

Como resultados se obtuvieron los grupos vulnerables presentados en la sección 4, y el


modelo predictivo obtenido en la sección 5.
El análisis descriptivo muestra que las muertes que involucran violencia familiar están
conformadas por grupos que incluyen mujeres y hombres. Los clusters obtenidos se
encuentran detallados en la sección 4.
El análisis predictivo genera un modelo que permite predecir la causa de muerte con
una precisión del 66%. En la tabla 8 se muestra una sección de los resultados de la
predicción y en la figura 9 se muestra la ejecución de la predicción.

Tabla 8. Resultados de la predicción (muestra).

Instancia Valor original Valor de la predicción

1 oCortante oCortante

2 AgresionFisica AgresionFisica
3 AgresionFisica AgresionFisica
4 oCortante oCortante
5 AgresionFisica AgresionFisica
6 AgresionFisica AgresionFisica
7 disparo AgresionFisica
8 AgresionFisica AgresionFisica
9 oCortante oCortante
10 oCortante oCortante
11 AgresionFisica AgresionFisica
12 oCortante disparo
13 AgresionFisica AgresionFisica
14 AgresionFisica AgresionFisica

7 Conclusiones y trabajos futuros

Aunque tradicionalmente se consideran a las mujeres y los niños como los principales
grupos vulnerables a la violencia familiar, la información recabada de las actas de
defunción muestra que la mayor parte de registros asociados a muertes que involucran
violencia familiar es de hombres. Esto demuestra que la violencia familiar afecta a todos
los miembros del núcleo.

85
Innovaciones Tecnológicas en las Ciencias Computacionales

Además, debe notarse que, a pesar del volumen de defunciones registradas de 2011 a
2017, los registros que explícitamente involucran a la violencia familiar como causa de
muerte no representan ni siquiera el 1% de éstas defunciones. Esto significa que la
información que se asienta en las actas es incompleta; las causas pueden ser tan diversas
como: negligencia de los registros civiles, desconocimiento de la identidad del agresor,
complicidad de los familiares o incluso aspectos ideológicos y culturales entre otras. Es
necesario entonces que se establezcan nuevos enfoques de visibilidad de las campañas
contra la violencia familiar con perspectivas más incluyentes.
Realizar la predicción de la causa de muerte de una víctima de violencia familiar es
una tarea aventurada, debido a que es imposible saber la causa de muerte de una persona;
esto se ve reflejado en la precisión obtenida en el modelo. Sin embargo, la identificación
de los grupos vulnerables a partir de los datos de defunción puede servir para generar
acciones enfocadas a la prevención de muertes futuras; al identificar en las victimas vivas
los patrones identificados en el estudio. Por ejemplo, generar protocolos de atención en
centros de salud al identificar a víctimas de violencia que pueda ser catalogada como
violencia familiar y canalizarlos hacia profesionales que puedan intervenir en el grupo
familiar para evitar la escalada de la violencia hacia la muerte.
Para poder realizar una mejor predicción es importante que los datos asentados en las
actas de defunción sean completos y confiables. Muchos registros de los revisados tenían
valores “No definidos” en atributos como el sexo, la edad, la escolaridad, etc. Con datos
más completos, es de esperarse que el modelo sea más confiable.
Como trabajo a futuro, puede utilizarse el modelo en datos de personas vivas víctimas de
violencia familiar para comprobar su efectividad. De la misma forma, puede trabajarse en
mejorar la precisión del modelo en cuanto se tengan datos oficiales que detallen de manera
más específica las causas de muerte relacionadas con violencia familiar.

Fig. 9. Cálculo de la predicción.

Referencias

1. Zariñán Martínez, M.; Rodríguez Quintero, L.; González Téllez-Girón, C.: ¿Qué es la violencia
familiar y cómo contrarrestarla? Ed. Comisión Nacional de los Derechos Humanos.

86
Innovaciones Tecnológicas en las Ciencias Computacionales

http://appweb.cndh.org.mx/biblioteca/archivos/pdfs/foll-Que-violencia-familiar.pdf (2016).
Accedido el 3 de Junio de 2019
2. Secretaria de salud. (2002). Violencia familiar (1st ed.). México.
http://www.salud.gob.mx/unidades/cdi/documentos/DOCSAL7434.pdf Accedido el 3 de Junio
de 2019
3. Álvarez, R. M. (s/f). La violencia familiar en México. Panorama legislativo. pp. 18.
4. Secretariado Ejecutivo del Sistema Nacional de Seguridad Pública (SESNSP): Datos abiertos
de incidencia delictiva. https://www.gob.mx/sesnsp/acciones-y-programas/datos-abiertos-de-
incidencia-delictiva (2019). Accedido el 2 de junio de 2019
5. Beltrán Martínez, B.: Minería de Datos. México. http://Bbeltran.Cs.Buap.Mx/Notasmd.Pdf
(s/f). Accedido el 3 de junio de 2019.
6. Galván Castro, P.; Meza Mendoza, A.: Estudio de minería de datos para la información de
mortalidad en México. Universidad Nacional Autónoma de México.
http://132.248.52.100:8080/xmlui/handle/132.248.52.100/2789 (2012). Accedido el 1 de Mayo
de 2019
7. Cornejo Rojas, D.; González Ilufi, A.: Estudio del comportamiento de la mortalidad en chile
basado en la minería de datos y análisis predictivos. Pontificia Universidad Católica de
Valparaíso. http://opac.pucv.cl/pucv_txt/txt-0500/UCC0959_01.pdf (2017) Accedido el 30 de
Mayo de 2019
8. Hidalgo León, P.: Clasificadores supervisados para el análisis predictivo de muerte y sobrevida
materna. http://ceur-ws.org/Vol-1318/paper10.pdf (s/f) pp. 9
9. Instituto Nacional de Estadística, Geografía e Informática: Mortalidad.
https://www.inegi.org.mx/programas/mortalidad/default.html (2019). Accedido el 24 de Mayo
de 2019
10. Instituto Nacional de Estadística, Geografía e Informática: Estadística de defunciones
generales. México. https://datos.gob.mx/busca/dataset/estadistica-de-defunciones-registradas
(2018) Accedido el 1 de Mayo de 2019
11. Breiman, L.: Random Forests. Machine Learning, 45(1), 5–32.
https://doi.org/10.1023/A:1010933404324 (2001). Accedido el 2 de Junio de 2019

87
Innovaciones Tecnológicas en las Ciencias Computacionales

Diseño de Programas Paralelos asistido con Diagramas de


Flujo de Datos

Mario Rossainz López, Mireya Tovar Vidal, Ana Patricia Cervantes Márquez,
Hilda Castillo Zacatelco
Benemérita Universidad Autónoma de Puebla
Avenida San Claudio y 14 sur, San Manuel, Puebla, Puebla, 72000, México
{rossainz, mtovar, patty, hilda}@cs.buap.mx

Resumen. El presente trabajo muestra un método para hacer diseño de programas


paralelos con paso de mensajes haciendo uso de Diagramas de Flujo de Datos
(DFDs), que son grafos que se utilizan dentro del diseño clásico estructurado de la
Ingeniería de Software. Se muestra la modificación y adecuación semántica de los
elementos gráficos de los DFDs a la semántica de los elementos que se utilizan en
el paso de mensajes de la programación concurrente/paralela para lograr mapear los
procesos, canales de comunicación, paralelismo geométrico, composición paralela,
generalización, especialización y anidamiento de procesos a los elementos gráficos
de los DFDs de forma que el diseño que se haga con ellos resulte ser un diseño
transparente en la codificación de un sistema paralelo que utilice procesos, canales
de comunicación, composición y anidamiento de procesos. Se muestra el diseño
paralelo completo asistido con DFDs de una aplicación paralela denominada
Generador Paralelo de Números Naturales para demostrar la utilidad de la
propuesta.
Palabras Clave: DFD, Diagrama de Flujo de Datos, Programación Paralela, Paso
de Mensajes, Memoria Distribuida, Diseño Paralelo, Diseño Estructurado.

1 Introducción

Actualmente existe mucho interés por gran parte de la comunidad dedicada a la


disciplina computacional, de desarrollar sistemas cada vez más poderosos aprovechando
las bondades de las arquitecturas de computadoras actuales. El enfoque más importante
en el desarrollo de este tipo de sistemas es el uso de la programación paralela en diversos
niveles. Los sistemas paralelos se encuentran hoy día en prácticamente todo tipo de
dispositivo, no solamente en computadoras, lo mismo está presente en dispositivos
empotrados de aparatos electrodomésticos y de línea blanca (pantallas, componentes de
audio, refrigeradores, reproductores de video, etc.), que en supercomputadoras de
institutos, universidades, el ejército o dependencias de gobierno (Moyano, 2016). Pero la
forma en que se desarrolla ese software paralelo para poder hacer un uso eficiente de estos
componentes toma gran relevancia respecto de los algoritmos paralelos diseñados e
implementados, adecuándolos a las diferentes plataformas existentes. Dentro de este
ámbito, el conocimiento que se tenga sobre los conceptos relacionados al diseño de
programas y algoritmos paralelos toma gran importancia para implementar programas
paralelos eficientes en su lógica, en su ejecución y en su rendimiento. El modelo de diseño
adoptado en el presente trabajo para diseñar programas paralelos es el denominado
modelo de proceso-canal (Moyano, 2016). Este modelo consiste en pensar que tenemos
una arquitectura paralela de paso de mensajes o memoria distribuida cuyos componentes
básicos son principalmente dos: los procesos que tienen asociadas tareas a realizar y el
medio de comunicación entre dichos procesos para la compartición de información a
través del concepto de canal (Fujimoto, 2000). Un proceso consiste en un programa
secuencial al que se le asocia una tarea, una localidad de memoria local no compartida y
una colección de puertas de entradas y/o salidas que son los canales de comunicación
(Palma, Garrido, Sánchez, Quesada, 2003). El canal utilizado es una estructura de

88
Innovaciones Tecnológicas en las Ciencias Computacionales

almacenamiento de capacidad cero (es decir, que por el canal viaja sólo un dato a la vez,
enviado por un proceso a otro que están conectados entre sí por el mismo canal; en donde
un proceso emisor envía un mensaje por el canal compartido y el proceso receptor lo
recibe, de forma que mientras el mensaje o dato se encuentre dentro del canal, el emisor
no podrá enviar ningún otro dato hasta saber que el receptor ya recibió el mensaje con lo
cual el canal quedará vacío y listo para almacenar otro mensaje del mismo tipo que el
anterior). Por tanto, un proceso que está conectado con otro a través de un canal de
comunicación y que es receptor, estará bloqueado en su ejecución si trata de recibir un
mensaje que todavía no se ha enviado. De la misma manera el proceso emisor estará
bloqueado en su ejecución si al enviar un mensaje por su canal de comunicación no ha
sido recibido por el proceso receptor. Esto indica que el envío del mensaje por parte del
proceso emisor y la recepción de este por parte del proceso receptor tienen una
comunicación síncrona por medio del canal que los comunica dándose así el concepto de
encuentro o cita (rendezvous), (Palma, et al, 2003). La metodología de diseño clásica para
este tipo de programación paralela según señalan Moyano (2016) y Wilkinson (2000) es
la propuesta por Ian Foster: particionar la computación (tareas) y los datos en pedazos,
determinar los patrones de comunicación entre las tareas que serán los procesos, generar
la composición de tareas/procesos (anidación de tareas) y asignar cada proceso a un
procesador o hilo de ejecución. En el proceso de partición y generación de tareas o
procesos la idea consiste en dividir los datos tan independientes como sea posible para
después determinar cuántos procesos deberán crearse y como asociar a dichos procesos
con los datos. Se genera así una descomposición funcional que consiste en dividir el
cálculo total en varios procesos y luego asociar los datos con ellos. Habrá procesos que
puedan dividirse en procesos más sencillos generando más descomposiciones y habrá
procesos que puedan juntarse y anidarse en una composición de más procesos, el objetivo
es determinar procesos primitivos que ya no puedan ser divididos en más procesos y que
sean los procesos que indiquen el punto de partida de los procesos más generales que
componen el sistema dando lugar a un grado de paralelismo que puede ser fino o grueso;
eso depende del problema a resolver junto con los datos de entrada (Wilkinson, 2000).
Lo ideal es determinar tantos procesos primitivos como sea posible con el fin de
maximizar el grado de paralelismo. Finalmente habrá que determinar el o los patrones de
comunicación entre los procesos primitivos y no primitivos a través de la creación de
canales de comunicación. Los procesos pueden entonces llevar a cabo tanto sus
comunicaciones como las ejecuciones de sus algoritmos asociados en paralelo. Si
analizamos y relacionamos la metodología de diseño de Ian Foster con el método de uso
y creación de un diagrama de flujo de datos o DFD podremos ver un mapeo de uno a uno
de los componentes de la metodología de Foster con los componentes gráficos de los
DFDs de forma que este tipo de grafos puede ayudar al programador novel en cuestiones
de paralelismo a proponer un buen diseño de una aplicación paralela asistido por los
DFDs. Esta es precisamente la propuesta del presente trabajo de investigación el cual está
organizado de la siguiente manera; la sección 2 muestra las características importantes de
los DFDs, sus componentes, los tipos de conexiones y la forma de construirlos, la sección
3 habla sobre la programación paralela con paso de mensajes, la sección 4 muestra cómo
diseñar un sistema paralelo haciendo uso de los DFDs y aplica la metodología propuesta
en un caso de estudio, y finalmente en la sección 5 se encuentran las conclusiones y
trabajos futuros. El presente artículo termina con las referencias bibliográficas que
sustentan lo escrito.

1.1 Diagrama de Flujo de Datos o DFDs

Un DFD es un diagrama en forma de red que representa el flujo de datos y las


transformaciones que se aplican sobre ellos al moverse desde la entrada hasta la salida de
un sistema software (Sumano, 2012). Los DFDs comúnmente se utilizan para modelar las
funciones de un sistema software y los datos que fluyen entre ellas a distintos niveles de

89
Innovaciones Tecnológicas en las Ciencias Computacionales

abstracción en un concepto puro de diseño estructurado dentro de la ingeniería de


software. El sistema software, por tanto, se modela mediante un conjunto de DFDs
nivelados en el que los niveles superiores definen las funciones del sistema de forma
general y los niveles inferiores definen estas funciones en niveles más detallados
(Sumano, 2012).

1.2 Componentes de un DFD

Los componentes de un diagrama de flujo de datos o DFD son:


• Procesos: Representan las funciones de un sistema software. Un proceso representa
una función, procedimiento u operación del sistema que transforma los flujos de datos
de entrada en uno o varios flujos de salida (Cillero, 2018). Su representación gráfica
es un círculo y en su interior se incluyen un número y el nombre que representa a la
función los cuales deben ser únicos dentro del DFD (ver Fig. 1).
• Almacenes: Representan los datos almacenados en alguna estructura específica como
una base de datos o un archivo. Un almacén de datos representa información del
sistema almacenada de forma temporal o permanente (Cillero, 2018). El almacén es
un depósito lógico de almacenamiento en el DFD que físicamente puede representar
un archivo, una base de datos, un cajón de un archivador, etc. En un DFD pueden
existir más de un almacén de datos distinto. Su representación gráfica son dos barras
paralelas (ver Fig. 1).
• Entidades Externas: Son las fuentes o destinos de la información del sistema.
Representa una fuente (generador) o destino (consumidor) de información para el
sistema pero que no pertenece a él (Cillero, 2018). Puede representar un subsistema,
una persona, un departamento, una organización, etc., que proporciona datos al
sistema o bien que los reciba de él. Se representan en el DFD mediante un cuadrado
con un nombre representativo de la entidad externa en su interior (ver Fig. 1).
• Flujo de Datos: representan los flujos de información que fluyen entre las funciones
del sistema. Es un camino a través del cual viajan datos de una parte del sistema a
otra. Representan los datos en movimiento dentro del sistema. Los flujos de datos son
el medio de conexión de los componentes del DFD (Cillero, 2018). Se representan
con arcos dirigidos, en donde la flecha indica la dirección de los datos.

Fig. 1. Representación gráfica de los componentes de un DFD

Para realizar la conexión entre los componentes de un DFD por medio de los flujos de
datos existen una serie de restricciones. La tabla 1 muestra las conexiones que están
permitidas en los DFD (García y Morales, 2003).

Tabla 1. Conexiones permitidas entre los componentes de un DFD

Destino/Fuente Proceso Almacén Entidad Externa


Proceso TRUE TRUE TRUE
Almacén TRUE FALSE FALSE
Entidad Externa TRUE FALSE FALSE

90
Innovaciones Tecnológicas en las Ciencias Computacionales

1.3 Conexiones de los componentes de un DFD

La conexión Proceso-Proceso: La conexión directa entre dos procesos mediante un flujo


de datos es posible siempre y cuando la información sea síncrona, es decir, que el proceso
destino comienza en el momento en el que el proceso origen finaliza su función. Sino
ocurre así, es necesario que exista un almacén temporal que guarde los datos del proceso
origen (García y Morales, 2003), (De Amescua, 2003). El proceso destino capturará
entonces estos datos cuando los necesite (ver Fig. 2).

La conexión Proceso-Almacén: Existen diferentes tipos de conexiones que se pueden


hacer entre los procesos y los almacenes en un DFD. La Fig. 3. Ilustra los siguientes
casos:
• Flujo de Consulta: muestra la utilización de la información del almacén por el
proceso para una de las siguientes acciones: utilizar los valores de uno o más atributos
de una ocurrencia del almacén o bien comprobar si los valores de los atributos
seleccionados cumplen unos criterios determinados.
• Flujo de Actualización: Indica que el proceso va a alterar la información mantenida
en el almacén para: crear una nueva ocurrencia de una entidad o interrelación existente
en el almacén, borrar una o más ocurrencias de una entidad o interrelación y modificar
el valor de un atributo.
• Flujo de Diálogo: Entre un proceso y un almacén representa como mínimo, un flujo
de consulta y un flujo de actualización que no tienen relación directa. Los flujos de
diálogo se utilizan también para simplificar la interfaz entre dos componentes de un
DFD.

Fig. 2. Conexión Proceso-Proceso en un DFD

Fig. 3. Conexión Proceso-Almacen en un DFD

1.4 Construcción de un DFD

La construcción de un DFD se basa en el principio de descomposición por niveles de


detalle. La idea es generar un modelo de un sistema representado por DFDs mediante
capas. La descomposición por niveles permite analizar el sistema desde el ámbito

91
Innovaciones Tecnológicas en las Ciencias Computacionales

general hasta llegar al detalle pasando por sucesivos niveles intermedios (enfoque top-
down) según señala García y Morales (2003). Esta forma de diseño de un sistema nos
proporciona una serie de ventajas: Ayuda a construir la especificación de arriba hacia
abajo, los distintos niveles pueden ir dirigidos a personas diferentes, se pueden modelar
funciones independientes del sistema de forma paralela, facilita la documentación del
sistema ya que cada diagrama se puede explicar por separado. Así, la descomposición
de un proceso en un DFD produce otro DFD (ver Fig. 4):
• Diagrama de Contexto: Es el nivel más alto de la jerarquía en el diseño de un
sistema. En este diagrama sólo hay un proceso que representa el sistema completo.
• Diagrama del Sistema [NIVEL 0]: Es la descomposición del DFD del diagrama
de Contexto en otro DFD en el que se representan las funciones principales del
sistema o subsistemas.
• Diagramas de Niveles Medios [NIVEL 1, 2, 3, …]: Son los DFDs que resultan de
la descomposición de cada uno de los procesos del DFD del Diagrama del Sistema
en nuevos diagramas que representan funciones más simples.
• Diagramas de Funciones Primitivas [Nivel n]: Son DFDs que representan
funciones que están lo suficientemente detalladas como para no ser necesario la
creación de nuevos DFDs.

Fig. 4. Descomposición en niveles de un DFD

2 Programación paralela con memoria distribuida

La forma natural de comunicar y sincronizar procesos en este tipo de sistemas es


mediante el uso de paso de mensajes: Los procesos intercambian mensajes entre ellos
mediante operaciones explícitas de envío (send) y recepción (receive) que constituyen las
primitivas básicas de todo sistema de comunicaciones de este tipo (Palma, 2003). Los
elementos fundamentales que intervienen en la comunicación en sistemas con paso de
mensajes son: un proceso emisor (transmitter), un proceso receptor (receiver), un canal
de comunicación (channel), el mensaje a enviar/recibir (message) y las operaciones de
envío (send()) y recepción (receive()), ver Fig. 5.

92
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 5. Modelo de Paso de Mensajes

2.1 Tipos de comunicación entre procesos

Es la manera en que el emisor indica a quién va dirigido el mensaje y viceversa, es


decir, la forma en que el receptor indica de quién espera un mensaje. Hablamos entonces
de comunicación directa o comunicación indirecta (Palma, 2003), (Capel 2012).
• Comunicación Directa-Simétrica: Se caracteriza porque el emisor identifica
explícitamente al receptor del mensaje en la operación de envío. El receptor, a su vez,
identifica al emisor del mensaje y se establece un enlace de comunicación entre
ambos.
• Comunicación Directa-Asimétrica: El emisor continúa identificando al receptor, pero
el receptor no identifica a un emisor concreto.
• Comunicación Indirecta: No se identifica explícitamente a los procesos emisor y
receptor. La comunicación se realiza depositando los mensajes en un almacén
intermedio que se supone conocido por los procesos interesados en la comunicación.
A ese almacén intermedio se le da el nombre de buzón.
• Comunicación Indirecta con Canales: Las operaciones de envío y recepción se
realizan a través de la especificación de un canal (enlace de comunicación), que
generalmente tiene un tipo asociado y sobre el cual sólo se pueden enviar datos del
mismo tipo. Además, un canal no puede ser utilizado por múltiples emisores y
receptores y es unidireccional. El concepto de canal surge en lenguajes como Occam
en 1988 y Pacal-FC.
• Comunicación Asíncrona: El emisor puede realizar la operación de envío sin que para
ello sea necesario que coincida en el tiempo con la operación de recepción por parte
del receptor. Esto conlleva la necesidad de almacenar los mensajes en buffers hasta
que el receptor los vaya retirando.
• Comunicación Síncrona: Debe darse la coincidencia en el tiempo de las operaciones
de envío y recepción por parte de emisores y receptores, es decir, el emisor quedará
bloqueado en la operación de envío (send) hasta que el receptor esté preparado para
recibir el mensaje (ejecute la operación receive), o viceversa, el receptor quedará
bloqueado en la operación de recepción (receive) hasta que el emisor envíe el mensaje
(send). En definitiva, los procesos quedarán bloqueados hasta que se produzca la
coincidencia de ambos, llamada rendezvous (cita o encuentro) en el tiempo.

2.2 Canales y Mensajes

• Flujo de Datos. Una vez establecido un canal de comunicación entre emisor y


receptor, éste, de acuerdo con el flujo de datos que pasan por él puede ser de dos tipos:
unidireccional o bidireccional. Para el primero, la información fluye siempre en un
sentido entre los dos interlocutores mientras que para el segundo la información fluye
en ambos sentidos.

93
Innovaciones Tecnológicas en las Ciencias Computacionales

• Capacidad del Canal. Es la posibilidad que tiene el enlace de comunicación de


almacenar los mensajes enviados por el emisor cuando éstos no son recogidos de
forma inmediata por el receptor (Capel 2012). Se tienen en general canales de
capacidad cero (en donde no existe un buffer donde se vayan almacenando los
mensajes), canales de capacidad finita (en donde el buffer existente tiene un tamaño
fijo) y canales de capacidad infinita (donde el buffer asociado al enlace de
comunicación se supone infinito en su capacidad).
• Tamaño de los mensajes. Los mensajes que viajan por el canal pueden ser de longitud
fija o de longitud variable.
• Canales con tipo o sin tipo. Algunos esquemas de comunicación exigen definir el tipo
de datos que va a fluir por el canal, imponiendo la restricción del envío de datos
únicamente del tipo para el que fue declarado el canal.
• Paso por copia o por referencia. La comunicación mediante paso de mensajes exige
enviar información entre los procesos implicados en la comunicación. Esto puede
realizarse de dos maneras: efectuar una copia exacta de los datos (mensaje) que el
emisor quiere enviar desde su espacio de direcciones al espacio de direcciones del
proceso receptor (paso por copia o valor) o simplemente enviarle al receptor la
dirección en el espacio de direcciones del emisor donde se encuentra el mensaje (paso
por referencia). Esto último requiere que los procesos interlocutores compartan
memoria.

3 Diseño de un sistema paralelo haciendo uso de Diagramas de Flujo


de Datos

Un programa paralelo es un único programa que consta de varios procesos que se ejecutan
al mismo tiempo (Hoare 2003). Un proceso es un programa secuencial en ejecución. El
programa paralelo tiene el control sobre sus procesos. Dentro del aspecto cognitivo humano
la composición de procesos a través de más procesos, es decir, a través de procesos simples
construir procesos más complejos; se torna natural cuando se desarrollan programas
paralelos basados en memoria distribuida. Los procesos son altamente independientes
porque están limitados a la tarea que tienen que resolver y proporcionan los fundamentos
de la estructura del programa. En el campo de la orientación a objetos, los procesos pueden
considerarse como objetos activos que tienen vida propia. Durante la fase del análisis del
desarrollo de un software paralelo, se determinan, entre otras cosas, las tareas a realizar por
el programa (Kendall 2011). Pero es en la fase de diseño que estas tareas se suelen
representar con modelos gráficos que representen tanto la estructura como la semántica de
los procesos asociados al sistema y para ello nos valemos de diagramas de actividades, o
diagramas de transición de estado en el diseño OO. Sin embargo, el diseño estructurado nos
da a través de los diagramas de flujo de datos un modelo gráfico importante en la fase de
diseño que podemos adoptar en el desarrollo de un programa paralelo con paso de mensajes
de forma totalmente transparente. Un diagrama de flujo de datos como ya se ha definido en
la sección 2 de este documento, es un grafo dirigido; que se puede adecuar en el diseño de
un sistema paralelo para con él definir procesos, así como el grado de paralelismo que
pretendemos programar mediante la generación de DFDs de niveles intermedios y la
estructura del programa como un todo usando el DFD de diagrama de contexto. Cada
círculo del modelo de un DFD representa en el diseño de un programa paralelo con paso de
mensajes un proceso o un flujo de control, mientras que las flechas indicarán ahora los
canales de comunicación que utilizan los procesos para comunicarse entre ellos y así definir
el flujo de datos o su comunicación exprofeso. Los rectángulos que representan entidades
externas en el DFD representarán ahora procesos de entrada de información o de salida de
información que llegan a otros procesos modelados con los círculos y los almacenes de
datos de los DFDs representarán ahora buzones en donde los procesos podrán dejar o
recoger información almacenada mediante los canales de comunicación, en caso de
requerirlos y según el tipo de comunicación utilizada en los procesos (ver sección 3.1 de

94
Innovaciones Tecnológicas en las Ciencias Computacionales

este documento). La representación gráfica de un diagrama de flujo de datos es un modelo


poderoso en la fase de diseño, que representa procesos en diferentes niveles de anidación,
es decir, especialización y generalización.

3.1 Aplicación: Un generador paralelo de números naturales

En esta sección se muestra el diseño de un generador de número naturales como un


programa paralelo con paso de mensajes. Este ejemplo ha sido tomado de Hilderink,
Broenink, Vervoort y Bakkers (1999) y de Hilderink, Broenink, Bakkers y Schaller
(2000). El diseño se realiza haciendo uso de los DFDs que van desde el diagrama de
contexto (que es el nivel más alto y genérico en la jerarquía de los DFDs) pasando por el
diagrama de sistema o DFD de nivel 0, que es la descomposición del diagrama de
contexto en los procesos principales del sistema en cuestión, junto con la comunicación
entre ellos a través de canales y la generación de DFDs de niveles medios que representan
la descomposición de los procesos identificados en el DFD de sistema y terminamos con
el diseño de los DFDs de los procesos primitivos que son aquellos que ya no se pueden
descomponer en más subprocesos. El DFD de contexto del generador de números
naturales se muestra en la fig. 6. El proceso representado por el círculo en la figura genera
números naturales consecutivos iniciando desde cero, aunque el usuario puede indicar el
número de partida. Dichos valores serán enviados a través del canal de comunicación
representado por la flecha o flujo hacia otro proceso llamado “Display” encargado de
recibir dichos números en secuencia e ir imprimiéndolos en pantalla conforme vaya
recibiéndolos. Este proceso es el encargado de definir el límite de recepción de los
números naturales. Tanto el proceso Generador Paralelo de Números Naturales como el
proceso Display son creados en lo que se llama una “Composición Paralela de Procesos”
para lanzarlos a ejecución concurrente. La comunicación entre estos dos procesos se da a
través del canal de comunicación acorde con el principio de cita (rendezvous), ver
Comunicación Síncrona de la sección 3.1 para los detalles.

Fig. 6. DFD de Contexto del Generador Paralelo de Números Naturales

El proceso Display de la fig. 6, es un proceso primitivo por tanto no se puede


descomponer en más subprocesos. Por el contrario, el proceso Generador Paralelo de
Números Naturales se puede descomponer en más subprocesos los cuales se diseñan a
través del DFD de Nivel 0 y que se muestra en la fig. 7. Este último DFD consta de tres
procesos (Prefijo (0), Delta y Sucesor o Suc) los cuales de acuerdo con la lógica de
funcionamiento del sistema propuesto están conectados por sus respectivos canales y
cuya comunicación entre ellos se lleva a cabo a través del concepto de cita (rendezvous).
Cada proceso es un objeto activo al cual se le asocia un hilo de control, mientras que un
canal es un objeto pasivo sin vida propia.

95
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 7. DFD de Nivel 0 o de sistema del Generador Paralelo de Números Naturales

De los tres procesos del DFD de Nivel 0 mostrado, el proceso Suc (Sucesor) es un proceso
primitivo el cual no puede ser descompuesto en más subprocesos. Su funcionamiento
consiste en incrementar en uno el valor que entra por su canal llamado Canal b y enviarlo
a continuación al proceso Prefijo a través del Canal c. Los otros dos procesos, Prefijo(0)
y Delta, son procesos compuestos por más procesos por lo que podemos diseñar sus
correspondientes DFDs de Niveles Medios (ver Fig. 8):

Fig. 8. DFDs de Nivel 1 (Niveles Medios) para los procesos Prefijo y Delta

El DFD de nivel 1 del proceso Prefijo tiene dos canales, uno de entrada (Canal c) y un
canal de salida (Canal a) que se conectan al proceso Id que lo compone. El proceso Prefijo
comienza su ejecución enviando por su canal de salida el valor de N proporcionado por
el usuario. N representa el número natural de inicio de la secuencia que se generará por
la aplicación. Después el proceso ejecuta el comportamiento de su proceso interno Id (se
dice que se comporta como él). El proceso interno Id es un proceso primitivo que no
puede descomponerse en más procesos.
En la misma Fig. 8, se muestra el DFD de nivel 1 del proceso Delta el cual tiene tres
canales de comunicación, un canal de entrada de información y dos canales de salida. El
comportamiento de Delta es el siguiente: en una ejecución infinita como proceso
independiente, cada vez que recibe un valor por su canal de entrada (canal a) es tomado
por los procesos internos que tiene (procesos Escribe) los cuales son ejecutados en
paralelo para que envíen al mismo tiempo por sus respectivos canales de salida (Canal b
y Canal d) el dato recibido sin modificación alguna. Los procesos Escribe son procesos
primitivos por lo que no pueden descomponerse en más subprocesos. Finalmente, el
diseño se completa con la representación gráfica como DFD de nivel 2, de los procesos
primitivos representados en los DFDs anteriores tal como lo muestra la tabla 2.
Con el diseño completado se puede definir el comportamiento de todo el sistema como
sigue: Al ejecutar el Generador Paralelo de números naturales los procesos Prefijo, Delta
y Sucesor se lanzan en una composición paralela. Estos tres procesos se encuentran
comunicados por medio de canales (Fig. 7) dentro de un proceso más general que está
comunicado con el proceso Display mediante un canal a través de otra composición
paralela (Fig. 6) e internamente el proceso Prefijo ejecuta el proceso Id que se encuentra
dentro de él (Fig. 8). De la misma manera el proceso Delta ejecuta dentro de una
composición paralela dos instancias del proceso Escribe (Fig. 8). Finalmente, cada uno
de ellos ejecuta el algoritmo secuencial que tiene asociado. El proceso Prefijo envía la
primera vez que se ejecuta, el valor asociado a N por su canal de salida que conecta con

96
Innovaciones Tecnológicas en las Ciencias Computacionales

el canal de entrada del proceso Delta el cual al recibir el valor lo envía en paralelo por sus
dos canales de salida ayudado por el proceso Escribe. Una copia de dicho número se envía
al proceso Display el cual al recibirlo por su canal de entrada que está conectado con un
canal de salida de Delta, lo imprime a pantalla, mientras que la otra copia del valor es
enviado al proceso Sucesor quien al recibir el valor por su canal de entrada que se conecta
con el otro canal de salida de Delta, calcula el sucesor del número recibido y lo envía por
su canal de salida al proceso Prefijo. Éste al recibirlo por su canal de entrada y ayudado
por el proceso interno Id, lo pasa tal cual y sin modificación al proceso Delta, repitiéndose
todos estos comportamientos hasta que el proceso Display llegue al límite de la
numeración que se quiere mostrar en pantalla y será este último proceso quien finalice la
ejecución de todo el sistema. Al final, el usuario verá en pantalla una secuencia de
números naturales que va desde un inicio N hasta un final definido por el proceso Display,
por ejemplo: 0,1,2,3,4,5,6,7,8, . . .100.

Tabla 2. DFD de Nivel 2 de los procesos primitivos del Generador Paralelo de


Números Naturales (Hilderink, et al, 1999), (Hilderink, et al, 2000)

4 Conclusiones y trabajos futuros

En esta investigación se ha propuesto una forma original de hacer diseño de programas


paralelos haciendo uso de los Diagramas de Flujo de Datos o DFDs del diseño
estructurado de la ingeniería de software clásica. Se utilizaron los mismos símbolos
gráficos de los DFD cambiando su semántica definida en el diseño estructurado por la
semántica de los elementos utilizados en la programación paralela con paso de mensajes
de forma que sus usos en el diseño de un sistema paralelo con estas características resulte

97
Innovaciones Tecnológicas en las Ciencias Computacionales

en un mapeo transparente y exacto de procesos como objetos activos, canales de


comunicación, paralelismo geométrico, partición lógica de procesos, generalización y
especialización en distintos niveles de anidamiento que corresponde a los distintos niveles
de generalización y particularización de los DFDs (contexto, de sistema, niveles 1, 2, 3,
etc.. hasta llegar a procesos primitivos). Nuestra intención además de presentar esta forma
de relación entre el Diseño Estructurado con DFD y la programación paralela con paso
de mensajes es demostrar su utilidad; es por ello que se muestra como caso de estudio el
diseño paralelo completo asistido con DFDs de una aplicación denominada Generador
Paralelo de Números Naturales. Actualmente esta aplicación ha sido ya programada en el
lenguaje JAVA usando una librería de clases particular denominada Jpmi basada en el
álgebra de procesos de Hoare o CSP (Hoare, 2003), (Friborg, Brian, 2010). Como trabajos
futuros proponemos el desarrollo de una herramienta que proporcione una interfaz gráfica
de usuario amigable con la que el programador pueda hacer sus diseños de programación
paralela con paso de mensajes dibujando sus correspondientes DFDs y que la herramienta
sea capaz de generar código automático en Java a manera de templates y asista así al
programador en la comunicación entre procesos liberándolo de la parte paralela para que
se centre únicamente en los algoritmos secuenciales que deberán ejecutar los procesos
diseñados en sus diagramas.

Referencias

1. Capel M., Rodriguez V. S. (2012), Sistemas Concurrentes y Distribuidos. Granada, Copycentro


Editorial.
2. Cillero Manuel de (2018), “Diagrama de Flujo de Datos”. Recuperado de
https://manuel.cillero.es/doc/metrica-3/tecnicas/diagrama-de-flujo-de-datos
3. De Amescua Seco A. (2003). Análisis y Diseño Estructurado y Orientado a Objetos de Sistemas
Informáticos, Madrid, Mc Graw Hill.
4. Friborg R.M. y Brian V. (2010). “PyCSP – Controlled Concurrency”, International Journal of
Information Processing and Management, Volume 1, Number 2, pp. 40-49.
5. Fujimoto (2000), Parallel and Distributed Simulation Systems, USA, Wiley-Interscience.
6. García Blanco S. y Morales Ramos E. (2003), Análisis y Diseño Detallado de Aplicaciones
Informáticas de Gestión”, Madrid, Thomson Paraninfo.
7. Hilderink G., Broenink J., Vervoort W. y Bakkers A. (1999). Communicating Java Threads,
IOS Press.
8. Hilderink G., Broenink J., Bakkers A. y Schaller N.C. (2000). Communicating Threads for
Java, Architectures, Languages and Techniques, IOS Press.
9. Hoare C.A.R. (2003), Communicating Sequential Processes. Re-edición, London, Prentice
Hall.
10. Kendall y Kendall (2011), Análisis y Diseño de Sistemas, México, Pearson.
11. Moyano J. (2016)., “Programación Paralela – Conceptos y Diseño de Sistemas Distribuidos”.
Recuperado de https://es.slideshare.net/cramex/programacin-paralela-conceptos-y-diseo-de-
sistemas-distribuidos
12. Palma Méndez J.T., Garrido Cabrera M.C., Sánchez Figeroa F. y Quesada Arencibia A. (2003),
Programación Concurernte. Madrid, Paraninfo.
13. Sumano López M.A. (2012). “Análisis Estructurado Moderno”. Recuperado de
https://www.uv.mx/personal/asumano/files/2012/08/AnalisisEstructuradoModerno.pdf
14. Wilkinson B. y Allen M. (2000), Parallel Programming. Techniques and Applications using
Networked Workstations and Parallel Computers, Prentice Hall.

98
Innovaciones Tecnológicas en las Ciencias Computacionales

Algorithm for collecting and sorting data from twitter


through the use of dictionaries in Python

María Beatríz Bernábe Loranca 1, Enrique Espinoza Monroy 2, José Martín Estrada Analco 3,
Abraham Sánchez López 4
Benemérita Universidad Autónoma de Puebla, Facultad de Ciencias de la Computación
Puebla, México
[email protected]

Abstract In this work we developed a tool for the classification of natural


language in the social network Twitter: The main purpose is to divide into two
classes, the opinions that the users express about the political moment of the
Mexican presidential elections in 2018. In this scenario, considering the
information from the Tweets as corpus, these have been randomly downloaded
from different users and with the tagging algorithm, it has been possible to identify
the comments into two categories defined as praises and insults, which are directed
towards the presidential candidates.
The tool known as CLiPS from Python, has been used for such purpose with the
inclusion of the tagging algorithm Finally, the frequency of the terms is analyzed
with descriptive statistics.
Keywords: Dictionary, Twitter, NLP, Python.

1 Introduction
This work is focused on identifying posts and opinions of people in the Twitter social
network by using a tagging algorithm in the natural language processing. The algorithm
consists in separating two types of comments from the Tweets: praises and insults. The
dynamic consists in downloading the information and group it into two well defined
classes. In this case, the "Tweets" that take our interest are downloaded with all the related
information (id, author, message, date, language, etc.). The algorithm developed utilizes
a clips library from Python that allows the extraction of comments in a customized way.
With this it is possible to mark from one word to a sentence with the needed content.
The comments that are taken from Twitter have a special variable called Unicode,
intractable as a string type variable. In this point, the information is stored into a csv
(comma separated values) file and it is then codified as UTF8 in order to support special
characters including accent marks.
In this article we have focused our attention to the opinions that Twitter users write
regarding the Mexican presidential elections, and from the different descriptive terms that
are identified surrounding the presidential candidates, the tweets are separated into
opposite descriptive terms about praises and disapproval.
The information processed comprises 2000 random tweets per day, and in a similar
manner, 500 comments are selected for each candidate.
The present work is organized as follows: This introduction as section 1. The section
2 presents the programming reference framework. Section 3 makes use of the previous
section describing the modules with a practical end for the final users and at the same
time with the purpose of helping programmers understand the implementation logic and
allow its modification.
In section 4 we explain a basic example about the implementation of the algorithm. In
this case we show how a news piece has many associated comments, negative or positive.
Finally, in section 5 we discuss the results and future work

2 Program Strategy
In this section we describe the necessary computational terms in this software.

99
Innovaciones Tecnológicas en las Ciencias Computacionales

2.1 Clustering
It is a series of elements with similarities of a universal set. The exclusion is a division
according to a criterion that creates sub-groups with the established restriction. The intent
is to handle general information in sub-classes to process it in a particular way. These
restrictions can be physical, emotional or psychological characteristics.
In datamining it is attributed the name of unsupervised learning. In this library, before
extracting the information, the source of the information and the similarity characteristic
are inspected. The following step deals with downloading the necessary content to create
the algorithm with real data and proceed with testing the algorithm. The information
downloaded is subjected to cleaning to separate trash information. Finally an algorithm
is developed that is appropriate for the problem under study [3].
2.2 Bayesian classifier
In probability theory and datamining, a Bayesian classifier is a probabilistic classifier
founded on the Bayes theorem.
2.3 Grouping Methods
Union procedure of a series of elements with a proximity criterion. In broad terms, the
data are sorted to identify the values in the following way: a) descending order, b) division
of data into sections, c) identify repeated values and c) according to the distance between
successive values from such data [3].
2.4 CSV
The CSV files are a flat text document type that is represented in a table structure where
the columns are separated by commas. The CSV format is very simple because is used as
spreadsheets.
2.5 Corpus
Is a set of documents with information obtained from some site in order to be used for
research purposes. The amount of documents collected depends on the problem, however,
on average two documents are required to be processed inside the current algorithm. The
first document is used on the training phase and the second is used to verify the success
of the algorithm that takes the training corpus.
2.6 Twitter
Known as one of the most popular social networks. Twitter allows to send short plain
text message, with a maximum of 280 characters currently, called tweets, shown in the
main page of the user. People can register as users to be able to subscribe to the tweets of
other users, this action is known as "following" the registered users. On the other hand,
Tweet is a message that is published by the people in Twitter. The tweet has a maximum
of 280 normal characters and can be less if the user uses special characters [4].

3 Modular Programming Methodology


To download the tweets that the algorithm requires, the first step consists in identifying
the relevant information of the tweet. In this point, the topic in the corpus without a
specific word is enough. When enough tweets are collected, these must be concentrated
to the least amount of words due to the ambiguity of the relations between comments and
words of the tweets downloaded. This control is measured to avoid useless information
in amounts that are impossible to treat.
For this work, inside the central topic, the users that support political parties were used
as keywords.
Once a considerable amount of tweets has been downloaded, the information is cleaned
with the UTF-8 codification to be used as strings. On the other hand, the Python split

100
Innovaciones Tecnológicas en las Ciencias Computacionales

function has to be used. The split function, divides a chain of characters into sub-chains,
according to a delimiter, to fragment the strings in at least two parts.

4 Functions Of The Algorithm Codification

4.1 Download tweets


To develop the algorithm, the tweets download must be initiated, afterwards, the
training corpus is created to analyze the success percentage. In this step, besides the
downloads, a conversion to the "utf-8" codification is made.

Figure 1. Python code to obtain the training corpus.

4.2 Clean and characters codification


This step consists in the implementation of the algorithm for the substitution of special
characters, for example, characters with accent marks. The code is the following:

101
Innovaciones Tecnológicas en las Ciencias Computacionales

Figure 2. Algorithm for the substitution of special characters.

5 Classification of Labels

With the document free of special characters, we can produce the clustering by tags
algorithm, for which, a personalized tagging in employed. In this work, the tweets are
marked on opinion or announcement according to the dictionary. Some of the words
identified in the downloads for the construction of the Spanish dictionary are the
following: "nuestros" (ours), "desmadre" (disorder, chaos, mess), "oyeron" (they heard),
"salgan" (get out, go out), "voy" (i go, i'm going), "nervioso" (nervous), "estoy" (I am),
"preocuparse" (getting worried).
The first tag, has been named "news" given that it shows some impartial comment.
This implies that it does not identify a feeling.
This means that for our problem the news are irrelevant, and they discarded from the
analysis are (code Spanish):

Figure 3. Classification process.

The second tag is opinion. An opinion is a comment that reflects a positive or negative
feeling on a specific topic. In this case feelings about politics is the center of opinions.
Once the tag has been assigned, the tweets are divided into two documents: Flattery and
offenses
In general, the steps of the algorithm exposed to reduce to the following:
1 is the collection of tweets where the mentioned users are found through the following
words:
RicardoAnayaC
Obrador_
JoseMeadeK
Mzavalagc
2 creates a list of words, making a previous cleaning of hyperlinks or incomplete words
with the termination of "..."
3 creates two dictionaries of the best words that appear 10 times or more using as a base
the 500 tweets collected where the presidential candidates are mentioned.
4 returns a list of the tweets where the words inserted into the dictionary of step 2 appear
5 An analysis is done where they are divided into two dictionaries: 1) Praises 2) Insults
6 the two previously mentioned dictionaries are returned
7 a comparison is made according to the two dictionaries of praises and insults.
8 a final count is created where the praises and insults appear where the presidential
candidates are mentioned.

6 Gathering Of Results

102
Innovaciones Tecnológicas en las Ciencias Computacionales

In this section, we present a review of the results of the dictionary algorithm. Descriptive
statistics are the focus of this section.
The variability of praises and insults mainly consisted of identifying the amount of
words that reflected a sentiment regarding a praise or an insult. In this work, the frequency
of the qualifying terms has been the main observation from the tweets: those that were
repeated at least 10 times, were included in the dictionary.
The similarity between the words of the tweets, with respect to a general dictionary of
praises and insults initially established, constitutes the final dictionary of the algorithm
developed. For this, each word in the tweets is checked, making an exact analogy with
respect to the words of the dictionary proposed at the beginning. With a linear search to
each individual tweet, the identical qualifying terms are identified and the dictionary that
the algorithm needs is created.
The majority of the praises collected in the tweets downloaded during 10 days were:

TABLE 1. DICTIONARY PRAISES


PRAISES ANAYA MEADE OBRADOR ZAVALA TOTAL
BETTER 26 46 21 32 125
MUCH 8 3 8 15 34
SUPPORT 23 9 19 39 90
VERY WELL 2 4 12 4 22
WIN 12 3 10 6 31
BIG 44 4 30 0 78
COME IN 8 30 14 0 52
TRUE 0 0 28 14 42
WON 16 14 6 0 36
ENRICHMENT 32 0 0 0 32
INVITATION 0 24 2 4 30
PUNCTUAL 0 28 0 0 28
POWER 0 0 2 26 28
EDIFICATION 0 0 0 26 26
TO WIN 4 2 10 4 20
WILL SUPPORT 0 2 0 18 20
GUEST 0 26 0 0 26
TO RECOVER 0 0 21 0 21
GOOD 5 3 2 3 13
CAPLE 18 1 0 0 19
PROUD 0 0 0 0 0
FAVOR 6 0 2 10 18
RESOURCES 15 2 0 0 17
SECURITY 0 2 2 12 16
YOU BUILT 15 0 0 0 15
I APPRECIATE 0 9 4 0 13
WE WANT 0 4 5 2 11
HE CANT 0 4 6 2 12
RESPECT 2 0 5 5 12
WE CAN 3 5 1 1 10
RAISE UP 1 1 0 8 10
CERTAIN 0 9 0 1 10
FOLLOWERS 6 7 9 3 25
LEADER 0 1 0 0 1
@MUJERESCONANAYA 12 0 0 0 12
WORTHY 2 3 5 1 11
FIRST 0 0 3 6 9
HE WINS 0 0 10 0 10
GREAT 5 9 3 0 17
BETTERS 13 2 0 2 17
HONESTLY 0 7 0 5 12
RELY 4 0 7 0 11
HOPE 2 0 8 0 10
“MEXICOCONMEADE” 6 2 0 0 8
“JUNTOSCONANAYA” 6 2 0 0 8
#MUJERESCONANAYA 8 0 0 0 8
#JUNTOSCONANAYA 7 0 0 0 7
SUCCES 4 2 1 0 7
SUPPORTING 1 0 6 0 7

103
Innovaciones Tecnológicas en las Ciencias Computacionales

UNITED 1 3 3 0 7
STRONG 1 5 0 1 7
ARROGANT 6 0 0 0 6
SUPPORTED 6 0 0 0 6

TOTAL 96 58 61 33 248
AVERAGE 3.84 2.32 2.44 1.32 248

Praises and insults were gathered during 10 days

% Average before 2do debate

22% 29%

24%
25%

Figure 4. The blue color is Anaya, he had more points than others candidates ones. Meade had
25 percent, Obrador 24 and Zavala 22

TABLE 2: DICTIONARY INSULTS


OFFENSE Anaya Meade Obrador Zavala TOTAL
Versus 31 48 95 10 184
Corruption 9 3 12 50 74
Report 26 30 0 0 56
Swaggering 32 4 6 0 42
Defamation 0 34 0 0 34
Influence 32 0 0 0 32
Striker 30 0 0 0 30
They accuse 0 2 28 0 30
Distorted 0 30 0 0 30
Fuck 0 22 0 0 22
Corrupt 4 2 4 10 20
Jail 0 1 0 17 18
Scoundrels 0 0 1 16 17
Impunity 3 1 3 3 10
Screw-up 0 2 8 0 10
Provocation 0 0 10 0 10
You will lose 0 26 0 0 26
Scare 8 2 3 12 25
Irresponsible 0 0 0 22 22
Uncertainty 3 6 2 6 17
More evil 4 0 10 0 14
War 1 0 7 6 14
Thieves 0 15 0 0 15
Attack 22 0 0 0 22
Detain 22 0 0 0 22
Bother 17 29 17 0 63
Abdication 3 2 12 45 62

Total 247 259 218 197 921


average 9.148 9.5926 8.07407 7.296 8.52777

104
Innovaciones Tecnológicas en las Ciencias Computacionales

Average insults before second debate

21% 27%

24%
28%

Figure 5. We can see Anaya (blue), has more insults tan others one.

7 CONCLUSIONS
In this work, an algorithm was developed to identify the sentiments during a political
event in twitter. The goal was focused on recognizing two variants of qualifying terms
associated to the presidential candidates for the 2018 Mexican election. To initiate this
algorithm, we assumed that the polls done by different companies had to have support in
additional analyses.
The results that we present reveal the percentages of praises and insults before the
second debate, which are not actually revealing. However, after the second debate, the
praises leaned towards the candidate of the MORENA party but without a significant
difference with respect to the others.

References
1. C. Davis, J. Kazil, S. Wei and M. Wynn, Scraping class Documentation Release 0.1,
IRE/NICAR, Chicago, Illinois, Mar 2018.
2. C. Severance. ”Python for informatics: Exploring the information”, Version 2.7.2, 2015.
3. P. Tan. Introduction to Data Mining. Michigan State University, Michigan, 2005, pp. 487-568
4. F. Ortiz, L. Angel, “Estudio en tendencia diarias en TWITTER”, 2014-2015.
5. Pranav Waykar, Kailash Wadhwani, Pooja More, “Sentiment analysis in twitter using Natural
Language Processing (NLP) and classification algorithm”, International Journal of Advanced
Research in Computer Engineering & Technology (IJARCET), Volume 5 Issue 1, January 2016.

105
Innovaciones Tecnológicas en las Ciencias Computacionales

Monitoreo de un roedor usando un sensor térmico con


Arduino

Jesús Manuel Roa Escalante1, Aldrin Barreto Flores1, María Isabel


Martínez García2, Salvador Eugenio Ayala Raggi1
1
Facultad de Ciencias de la Electrónica,
Benemérita Universidad Autónoma de Puebla,
Av. San Claudio y 18 Sur Edif. FCE1, Col. Jardines de San Manuel,
Ciudad Universitaria, Puebla, Puebla
2
Facultad de Ciencias Químicas,
Benemérita Universidad Autónoma de Puebla,
Av. San Claudio y 18 Sur Edif. FCQ1, Col. Jardines de San Manuel,
Ciudad Universitaria, Puebla, Puebla
1
{jesusmanuel.lroa, saraggi}@gmail.com
1, 2
{aldrin.barreto, mariai.martinez}@correo.buap.mx

Resumen. En el siguiente trabajo se propone obtener comportamientos de un


roedor, tales como posición y trayectoria dentro de una caja de pruebas, utilizando
una cámara térmica de 8×8 pixeles y una tarjeta SD para guardar en un archivo la
ubicación del roedor. El experimento de reconocimiento de objetos en roedores es
de gran importancia para valorar los efectos que tienen los fármacos sobre la
memoria y el aprendizaje de dichos animales. Integrando la cámara térmica y una
tarjeta SD a un Arduino Due, se extrae la posición del roedor identificando el píxel
con mayor temperatura de cada fotograma en tiempo real y se almacena ese dato
para generar un gráfico de posición y trayectoria realizada durante el experimento
con ayuda de un algoritmo implementado en MATLAB, logrando visualizar de
manera rápida los resultados y minimizando el tiempo que tarda un humano en
analizar los mismos datos.
Palabras Clave: Comportamiento de Roedores, Arduino, Cámara Térmica.

1 Introducción

La experimentación y estudios en roedores permiten grandes avances en la medicina, las


alteraciones en su comportamiento ayudan a detectar perturbaciones en su sistema
nervioso. En estos experimentos los roedores exploran su ambiente constantemente y
también los objetos que ingresan en él. Durante el reconocimiento, ellos muestran su
interés por los objetos que encuentran a su paso, este comportamiento es usado por los
investigadores para valorar la memoria a corto y largo plazo del roedor. Todos los datos
recabados en cada prueba generalmente se capturan y analizan de forma manual,
requiriendo mucho tiempo al investigador, además de abrir la posibilidad a errores en su
interpretación.
Durante la prueba, el animal se ingresa dentro de una caja de acrílico con dimensiones
de 60×55×30 centímetros, mientras el roedor realiza su recorrido, el investigador realiza
el apunte de la posición en que éste se encuentra y que objeto visita. Otro método utilizado
es video grabar el experimento, después el investigador se dispone a revisar cada video
para anotar la trayectoria del roedor por toda la caja, estas actividades le toman al
investigador cerca de media hora por cada prueba, sin mencionar la gran cantidad de
animales con los que se experimenta y la frecuencia con que se realizan. Existe una prueba
llamada de campo abierto, es un modelo usual para analizar el comportamiento de
roedores que consiste en contar y registrar el número de movimientos esperados de cada
rata, algunas investigaciones sobre estos temas presentan el uso de cámaras de video [1],
con las que se registran acciones como caminar, erguirse y bajar la cabeza,

106
Innovaciones Tecnológicas en las Ciencias Computacionales

implementando métodos de procesamiento de imagen para correlacionar la longitud del


cuerpo de la rata y la conducta del roedor.
Otro comportamiento poco usual es cuando los animales se rascan, lo cual es inducido
por comezón y puede ser síntoma de una dermatitis. En [2], se realizó la cuantificación
de este comportamiento, haciendo la gran velocidad con la que estos animales se rascan
el principal problema a resolver, proponiendo así el uso de una cámara de alta velocidad,
para implementar un algoritmo de cuantificación en tiempo real, utilizando como
procesador principal un arreglo de compuertas programable en el campo o FPGA (del
inglés Field-Programmable Gate Array). El método planeado fue buscar una diferencia
entre fotogramas y así encontrar el movimiento repetitivo del animal.
Se conoce que muchas investigaciones acerca del estudio en roedores se basan en
obtener toda su información dentro del rango visible para después ejecutar algoritmos de
procesamiento. Para concretar un rastreo inteligente de roedores se debe tomar en cuenta
la iluminación, en [3] proponen el uso de una video cámara junto a una computadora para
el diseño de un algoritmo y una interfaz gráfica donde se mostraba la posición, trayectoria,
distancia recorrida y ubicación por bloques del roedor dentro de un laberinto. Los videos
capturados no mostraron ruido de iluminación, los datos generados tuvieron una
confiabilidad del 93.85 %, ya que fueron detectados algunos falsos positivos en la
detección del roedor. En el trabajo presentado por Jhuang et al. [4] se estudia el
comportamiento de los roedores cuando se encuentran dentro de su jaula de cautiverio,
dentro de su análisis se genera un modelo computacional capaz de reconocer patrones
entre diferentes cepas de roedores y descubrir características específicas de los mismos.
Farah et al. [5] realizaron el reconocimiento de tres comportamientos, exploración,
erguido y estático, utilizando una video cámara. Para determinar si el roedor se encuentra
en alguno de estos estados se realizó un sistema que pudiera comparar las imágenes
obtenidas con una base de datos y así clasificar la conducta del animal. Al posicionar la
cámara a un costado de la caja de experimentos lograron interpretar las conductas de
erguido detectando la altura obtenida por el roedor y comparándola con la altura obtenida
de los entrenamientos al momento de erguirse.
En la actualidad, existe software que permite detectar animales y hacer un seguimiento
de ellos por medio de cámaras de video, Noldus et al. [6] demuestran que el uso del
software de la empresa Noldus Information Technology, llamado EthoVision XT, es
flexible a la hora de aplicarlo en diferentes tipos de experimentos con animales. Este
software puede adquirirse por US$5,850.
Charoenpong et al. [7] proponen medir los parámetros de comportamiento en ratas
utilizando una computadora y una cámara. Hacen mención acerca de todos los parámetros
que se pueden obtener utilizando el software EthoVision XT. Teniendo como objetivo
reducir costos, concluyen que es suficiente obtener solo la distancia y duración en el área
seleccionada. Los datos de entrada que utilizan son secuencias de imágenes, ejecutando
el método de agrupación K-Means se extrae la rata de cada imagen, el ruido es eliminado
implementando técnicas de erosión y dilatación.

2 Metodología y materiales

El proceso de experimentación permite reconocer conductas que tienen los roedores


durante cierto tratamiento médico, el método consiste en dejar al roedor explorar la caja
vacía durante 5 minutos, después se le deja reposar en su jaula de cautiverio durante 2
minutos, pasado ese tiempo, el roedor es reingresado a la caja, pero ahora con dos objetos
idénticos en color y forma y se repite otras dos veces pero cambiando siempre uno de los
dos objetos, el proceso es descrito en un diagrama a bloques mostrado en la Fig. 1.

107
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 2. Proceso de experimentación para un reconocimiento


de objetos realizado con roedores.

La información que se requiere obtener es durante la exploración de la caja y los tres


reconocimientos de objetos. Para esto utilizaremos una cámara térmica AMG8833,
fabricada por la empresa Panasonic y la cual proporciona un arreglo de 8×8 pixeles. Este
sensor térmico trabaja con una alimentación de 3.3 V y entrega los datos en forma de un
array de 64 lecturas, equivalentes a cada temperatura de los pixeles, utilizando el
protocolo I2C. El rango de temperaturas que puede registrar va desde los 0° C a 80° C, y
la distancia máxima de detección ronda en los 7 metros. La frecuencia con la que obtiene
sus lecturas es de un máximo de 10 fotogramas por segundo, las librerías para manejar
esta cámara se encuentran para Arduino y Python [8]. Para comparar las lecturas del
sensor se agregó una video cámara, de esta manera se puede comprobar de manera visual
las lecturas que obtenemos en el rango infrarrojo.

108
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 2. Montaje del sistema de captura.

La tarjeta Arduino Due cuenta con 54 pines digitales de entrada y salida, 12 pines
analógicos, pines de alimentación a 3.3 V y 5 V, una memoria flash de 512 Kb, memoria
estática de acceso aleatorio o SRAM de 96 Kb y un reloj a una velocidad de 84 MHz.
Además, cuenta con pines de uso especial para una interfaz periférica serial [9], con los
cuales podemos integrar de forma fácil una tarjeta SD para almacenar información
necesaria para los resultados.
Una vez integrados la tarjeta SD y el sensor AMG8833 a la placa de Arduino Due se
desarrolló un algoritmo (véase la Fig. 3) capaz de reconocer dentro de cada fotograma el
píxel con la temperatura más alta, de esta manera, identificar la posición del roedor se
realiza de manera rápida, después se almacena la posición y temperatura del dato tomado
en la memoria externa con formato CSV (Comma-Separated Values), dando capacidad a
la placa de almacenar una mayor cantidad de datos.

109
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 3. Diagrama de flujo del algoritmo de almacenamiento utilizando


un Arduino Due, el sensor AMG8833 y una tarjeta SD.

Antes de que se hicieran pruebas con la cámara térmica y el roedor para poder calibrar
la distancia donde se cubre toda el área de la caja de pruebas, por lo tanto, se obtuvo un
reconocimiento del roedor preciso a una escala de temperatura que oscila entre los 21.5°
C y los 22° C, con el sensor posicionado a una altura de 65 cm.
Con ayuda de MATLAB versión r2017b, se implementó un programa capaz de leer el
archivo CSV obtenido de los experimentos y obtener la posición del roedor de manera
gráfica dentro de una imagen 8×8 y la trayectoria descrita durante la prueba.

3 Resultados

Se obtuvieron 4 videos, de los cuales el primero fue durante la exploración y los tres
últimos en la fase de reconocimiento de objetos. Durante la captura de datos, los
fotogramas reales entregados por el sensor llegaron a un máximo de 7 FPS. Durante la
captura de los videos, se observaron algunas contribuciones de temperatura que emitía el
ambiente en el que se realizaron las pruebas, ya que no fueron realizadas en un lugar con
temperatura controlada.
En la primera gráfica de resultados se muestra al roedor explorando la caja de pruebas
(véase la fig. 4). Este desplazamiento suele darse cuando el roedor explora un lugar nuevo,
y una vez que se acostumbra prefiere quedarse en un solo lugar. También se encuentra un
factor clave que es el entrenamiento previo del roedor, ya que algunos de estos animales
tienden a explorar muy poco y esto puedo afectar en el desarrollo de la prueba.

110
Innovaciones Tecnológicas en las Ciencias Computacionales

a) b)

Fig. 4. Resultados durante la exploración, a) muestra en forma


de puntos la ubicación del roedor durante toda la prueba,
b) muestra la trayectoria del roedor durante la misma prueba.

En la segunda gráfica, el roedor se encuentra en el reconocimiento de los primeros dos


objetos (véase la fig. 5).

a) b)

Fig. 5. Resultados del primer reconocimiento, a) muestra en forma de


puntos la ubicación del roedor, b) muestra la trayectoria del roedor
durante la misma prueba.
En la tercera gráfica de resultados se muestra una mayor actividad del roedor (véase la
fig. 6), el sistema en este punto pudo ser comparado con los videos en el rango visible
obtenidos con ayuda de la cámara.

a) b)

111
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 6. Resultados del segundo reconocimiento, a) muestra en forma


de puntos la ubicación del roedor durante toda la prueba, b) muestra la trayectoria
del roedor durante la misma prueba.

Como método de comprobación se buscó el inicio de cada video y el inicio de los datos
obtenidos con el sensor térmico, así se pudo sincronizar de manera manual para visualizar
la precisión del sistema empleado. De esta manera, se observó un resultado favorable en
la detección de la posición del animal (véase la fig. 7).

a) b)

Fig. 7. Ubicación del roedor, a) utilizando el rango infrarrojo, b) utilizando el rango visible.

4 Conclusiones y trabajos futuros

Cuando se utiliza el sensor infrarrojo se pueden detectar temperaturas ajenas al roedor,


agregando subjetividad en los resultados, para evitar estas contribuciones se planea mejorar
el sistema, haciendo filtrados de temperatura o agregando más sensores y así permitir hacer
una captura desde distancias más cercanas sin perder área de lectura.
Una ventaja de este sistema es la capacidad de ignorar detalles que pueden presentarse en
el espectro visible, como los reflejos de luz que emiten algunos materiales, permitiendo un
mejor seguimiento del roedor. Mostrado el punto anterior, se debe reconocer que, aun
teniendo ventajas, la forma en que se observa al roedor es menos precisa a la hora de
reconocer sus extremidades, ya que al observar su calor emitido solo es posible, hasta el
momento, determinar la posición donde se encuentra.

112
Innovaciones Tecnológicas en las Ciencias Computacionales

Se determinó que es posible obtener la trayectoria del roedor utilizando únicamente el


sensor y una tarjeta Arduino Due, dando posibilidad a mejoras en el desarrollo de resultados
y toma de datos. El precio considerado para este proyecto no rebasa los US$80, haciéndolo
asequible y abriendo un gran campo al desarrollo de mejoras. Para trabajos futuros se espera
que el sistema pueda ser integrado como un solo dispositivo, capaz de poder ajustarse a
diferentes medidas de cajas de experimentos, agregar una interfaz gráfica y poder visualizar
los datos vía internet.

Agradecimientos.

A la Dra. María Isabel Martínez García, por dar la oportunidad de trabajar en el


laboratorio de neurociencias, por enseñarme los métodos utilizados para la experimentación
en roedores y así buscar mejoras en la obtención de resultados.

Referencias

1. Chanchanachitkul, W.; Nanthiyanuragsa, P.; Sangpayap, R.; Thongsaard W.; Charoenpong, T.:
Local foreground extraction technique for rat walking behavior classification. International
Conference on Knowledge and Smart Technology, Vol. 7, pp. 54-59 (2015).
2. Nie, Y., Ishii, I., Yamamoto, K.; Orito, K.; Matsuda, H.: Real-time scratching behavior
quantification system for laboratory mice using high-speed visión. Journal of Real-Time Image
Processing, Vol. 4, pp. 181–190 (2009).
3. De La Torre, C.; Hernández, C.; Gutiérrez, J.; Chacón, M.: Sistema de visión para rastreo
inteligente de un roedor en un laberinto. Congreso Internacional de Ingeniería en Electrónica,
pp. 438-441 (2013).
4. Jhuang, H.; Garrote, E.; Yu, X.; Khilnani, V.; Poggio, T.; Steele, A. D.; Serre, T. Nature
Communications. Automated home-cage behavioural phenotyping of mice. Nature.
https://www.nature.com/article/ncomms1064 (2010). Accedido el 30 de Mayo de 2019.
5. Farah, R., Langlois, J.M.P.; Bilodeau, GA.: Computing a rodent’s diary. Signal, Image and
Video Processing, Vol. 10, pp. 567–574 (2016)
6. Noldus, L. P. J. J.; Spink, A. J.; Tegelenbosch, R. A. J.: EthoVision: A versatile video tracking
system for automation of behavioral experiments. Behavior Research Methods, Instruments, &
Computers, Vol. 33, pp. 398-414 (2001)
7. Charoenpong, T.; Promworn, Y.; Thangwiwatchinda, P.; Senavongse, W.; Thongsaard, W.: An
Experimental Setup for Measuring Distance and Duration of Rat Behavior. Biomedical
Engineering International Conference, Vol. 5, pp. 1-5 (2012)
8. Panasonic: Specifications for Infrared Array Sensor. https://bit.ly/2x64End (2011). Accedido
el 30 de Mayo de 2019
9. Torrente, O.: ARDUINO Curso práctico de formación. Alfa Omega (2013)

113
Innovaciones Tecnológicas en las Ciencias Computacionales

Unity y FPGA Aplicados a Robótica

Caballero Morales Ricardo Fabian1, Torres León José Esteban1, García Lucero Carlos2,
Muñiz Sánchez Marbella1
1
Dpto. de Ing Eléctrica y Electrónica, Instituto Tecnológico de Puebla
2
INTESC electronics & embedded
1{[email protected], marbellams@icloud,com}

Resumen. En este artículo se presenta el desarrollo de una aplicación para controlar


los movimientos de un robot (hexápodo), usando el software Unity y el hardware
FPGA. El control del robot fue realizado en un FPGA para mover las articulaciones
del robot, además de recibir comandos de la aplicación Unity. El modelo del robot
se realizó en SolidWork, el cual, lo importó Unity, para que se programan los
movimientos y la comunicación, para controlar al robot con la aplicación Unity.

Palabras clave: Unity, FPGA, Robot Hexápodo, SolidWorks.

1 Introducción

En la actualidad, el desarrollar aplicaciones para controlar robots, requiere conocer


nuevas plataformas software y hardware para hacerlo. Entre las plataformas de software
se tienen a las que permiten desarrollar videjuegos, aplicaciones móviles, aplicaciones
IoT (internet de las cosas), y en hardware se consideran a las que permiten la lógica
programada y la lógica configurable. El desarrollo de aplicaciones con las nuevas
plataformas de Software Hardware para controlar robots, depende de las necesidades del
cliente y del software hardware a elegir. En los nuevos desarrollos de aplicaciones, no se
aplica una metodología específica, sino más bien se exploran distintas herramientas que
se tienen, en cuanto a tecnologías disponibles y recursos hardware software para llevarlo
a cabo.

Existen diversos trabajos que reportan desarrollos de control de robots, por ejemplo en
[1] presenta el desarrollo de un robot hexápodo usando CATIA. En [2] se desarrolló una
herramienta pedagógica con FPGAs para comunicar al robot con LabVIEW. En [3] se
atendió la búsqueda y salvamiento, utilizando múltiples algoritmos para movimientos
más eficientes, con Arduino y Raspberry PI. En [4] se controla a un robot hexápodo,
utilizando un FPGA, para controlar 18 servomotores, este controlador tenía tres aspectos
principales a considerar la estabilidad, velocidad y sincronización.

En este artículo se presenta el desarrollo de una aplicación para controlar de manera


remota un robot usando Unity y FPGA.

2 Descripción del problema

Se busca desarrollar una aplicación para controlar un robot hexápodo, que integre
tecnologías de video juegos y lógica configurable, que formarán parte de un conjunto de
recursos alternos para controlar robots. Los requerimientos técnicos para el desarrollo de
la aplicación fueron los siguientes:

1) Diseño en SolidWorks del robot.


2) Diseño y desarrollo del hardware que permita controlar los movimientos del robot.
3) Incorporación del hardware de control al robot.
4) Diseño y desarrollo de la aplicación del control del robot en Unity.
5) Desarrollar la comunicación remota entra la aplicación Unity y el Robot.

114
Innovaciones Tecnológicas en las Ciencias Computacionales

6) El control y movimientos del robot debe realizarse por valores dados a la interfaz de
la aplicación Unity.

3 Propuesta de solución del sistema de control del robot

El desarrollo del nuevo sistema de control de robot, basado en tecnologías de


videojuegos y lógica configurable, debe permitir, operar el control del robot, desde una
aplicación de escritorio. Después de un análisis, la solución debe cubrir la arquitectura de
control del robot, un módulo de comunicación inalámbrico y la aplicación de escritorio,
como se muestra en la figura 1.

Robot
Aplicación
FPGA Módulo Unity
Arquitectu de
ra Comunicació
n

Fig. 1. Diseño del control del robot utilizando Unity y FPGA.

La arquitectura del FPGA debe permitir: controlar los movimientos del robot
hexápodo; tener una memoria de doble puerto para almacenar rutinas de movimiento y
permitir que mientras una rutina se ejecute otra rutina esté en paro; controlar tiempos de
posición para que el robot quede quieto antes de pasar al siguiente movimiento, así como
tiempo de ejecución de movimiento para pasar de un punto a otro; interpretar comandos
provenientes de la aplicación Unity; enviar señales a los correspondientes servomotores
del robot.

La comunicación serial debe permitir: establecer la comunicación asíncrona, enviar y


recibir información a/y desde la aplicación de escritorio; respetar las normas eléctricas y
funcionales del protocolo RS 232C. Este módulo debe ser parte externa a la arquitectura
del control del robot y dentro del FPGA.

La aplicación de escritorio debe permitir: enviar comandos hacia el robot, editar en


cuadros de texto datos para 18 servos, tiempos, movimientos y posiciones; guardar y abrir
rutinas en archivo de texto; habilitar la conexión con el robot. Algunos comandos tendrán
la funcionalidad de guardar las rutinas, ejecutarlas, levantar al robot hexápodo, etc.

4 Propuesta de las herramientas y plataformas

Para desarrollar la propuesta se propuso utilizar herramientas y plataformas


computacionales que se muestran en la figura 2 y que a continuación se enuncian:

1) Para generar el renderizado del robot se utilizó Solidworks 2014.


2) Para programar la arquitectura para controlar al robot hexápodo se utilizó VHDL de
Xilinx ISE Desing Suite 2013.
3) La síntesis de la arquitectura se depositó en un Spartan 6

115
Innovaciones Tecnológicas en las Ciencias Computacionales

4) Para la programación de la aplicación de escritorio se utilizó Unity y C# de Visual

Studio.

Fig. 2. Herramientas y plataformas utilizadas.

5 Desarrollo

EL desarrollo de los módulos se presenta a continuación.

Para el Robot, se revisó la carcasa y los motores. La carcasa no tuvo daño alguno, por lo
que, por experiencia, se podía utilizar. Para los motores, estos se revisaron, algunos
estaban dañados y se sustituyeron por nuevos y la carcasa del robot estaba lista.

Para la arquitectura de control en el FPGA, se tenía que cubrir la funcionalidad requerida,


en la figura 3, se muestra el diseño propuesto.

Fig. 3. Arquitectura de control del robot en un FPGA.

La comunicación serial se define en base al protocolo RS232 considerando 1 bit de


inicio, 8 bits de datos, 1 bit de paro, sin bit de paridad y una velocidad de transferencia
configurable. En la figura 4 se muestra la declaración del RS 232C.

Fig. 4. Protocolo serial RS 232


Para el módulo de interpretación de comandos se definieron valores y el
funcionamiento para cada uno de los comandos propuestos, ver tabla 1. En la figura 5 se

116
Innovaciones Tecnológicas en las Ciencias Computacionales

muestra la declaración del módulo de comandos con el nombre de secuencia. Este módulo
es básicamente una máquina de estados, y en la misma figura se muestra dicha máquina.

Tabla 1. Funcionamiento de los comandos de la arquitectura


Nombre Dato Función
Guardar 0x01 Cuando se de click en el botón guardar, este enviara todos
los datos correspondientes de la aplicación de escritorio al
FPGA para guardarlos en la memoria.
Ejecutar 0x02 Cuando se de click en el botón ejecutar, leerá de la
memoria todos los datos que estén guardados para mover el
robot hexápodo.
Detener 0x03 Este botón se encargará de detener al robot cuando este
ejecutando una rutina.
Reposo 0x04 Manda al robot directamente a su posición inicial sin
importar si está ejecutando una rutina o está en paro.
Levantar 0x05 levanta al robot de la posición inicial

Fig. 5. Protocolo serial RS 232

EL módulo de memoria, se creó para guardar las rutinas a ejecutarse. La memoria era
de 62 registros de 20 bytes, y cada registró guardará los movimientos para los 18 servos
y la configuración de los tiempos de movimiento.

Se creó el módulo de la memoria, de la misma forma que se creó el módulo del intérprete.
La memoria debe ser de doble puerto, para asegurar que la lectura y la escritura sean
independientes. El código del controlador de puerto se muestra en la figura 6.

Fig. 6. Código del módulo memoria

117
Innovaciones Tecnológicas en las Ciencias Computacionales

El controlador de memoria controlado por comandos, tiene la función de controlar los


puertos, el tipo de funcionalidad y las direcciones de la memoria. Se utilizó una máquina
de estados para tal fin, la cual, se muestra en la figura 7.

Fig. 7. Máquina de estados del controlador de memoria

De la máquina de 10 estados, el estado 2 es el estado principal, el cual, controlará si se


guarda una rutina o se ejecuta otra rutina. Esto dependiendo del comando que se reciba
de la aplicación de escritorio.

El módulo PWM se utilizó para controlar los servomotores con un FPGA y se debe
atender tanto el periodo configurable como el ciclo de trabajo configurable.

El módulo PWM tiene una interconexión con un módulo secundario, y este se muestra
en la figura 8, el cual, separará el registro de 20 bytes, que son leídos en la memoria y
enviados a su respectivo módulo PWM, el módulo PWM se mapeo 18 veces para cada
uno de los servomotores.

Fig. 8. Conexión Memoria y PWM.

La aplicación de escritorio se realizó con C#. Esta aplicación presenta una GUI
utilizando Unity para simular los movimientos del robot hexápodo y cuenta con funciones
como: configuración del puerto serial, definición de los puntos en los que se moverá el
robot hexápodo, así como de los tiempos de los movimientos, se monitorean los motores,
así como opciones de guardar, ejecutar entre otros.

En la figura 9 se muestra el código por defecto con 3 librerías que utiliza Unity a partir
de Visual Studio. Las librerías son la clase principal del código y dos funciones.

Fig. 9. Código para incorporar Unity.

118
Innovaciones Tecnológicas en las Ciencias Computacionales

Después se realizó la configuración para comunicar la aplicación de Unity con el


FPGA, esto se muestra en la figura 10.

Fig. 10. Código para comunicación serial Unity - FPGA.

Luego se procedió a exportar el modelo del robot hexápodo realizado en SolidWorks


a Unity, pero, como no se puede hacer directamente, se utilizó Blender como
intermediario. Para exportar un modelo a Unity, se abrió el modelo del robot hexápodo,
se seleccionó la opción de guardar como y se guardó en formato .STL en una carpeta
nueva, esto se muestra en la figura 11.

Fig. 11. Importación de modelo a Unity a través de Blender y su vista

Después de que se exportado el modelo del robot hexápodo y teniendo los códigos de
las funciones principales se creó un script por motor en donde se tendrán juntaron las
funciones de rotación y los ángulos. La aplicación de escritorio que se realizó en Unity
se observa en la figura 12, la cual, será interactiva para controlar los movimientos del
robot hexápodo

119
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 12. Aplicación Unity para controlar Robot Hexápodo

La parte de Pruebas se realizó por cada una de las partes que conformaron al proyecto.
Las dos primeras pruebas que se hicieron fue levantar y poner al ras del suelo al robot,
esto se muestra en la figura 13.

Fig. 13. Levantar y bajar al robot

Después se procedió a realizar una rutina con la aplicación de escritorio. Para ello se
utilizó la GUI de la aplicación Unity, esta consistió en ir guardando los puntos necesarios
para crear una rutina, estos puntos se crearan moviendo el modelo del robot hexapodo de
la aplicación, esto se muestra en la figura 14. Estos puntos tambien se guardaban en un
archivo de texto, ver figura 14.

Fig. 14. Rutina para movimiento del robot hexápodo

120
Innovaciones Tecnológicas en las Ciencias Computacionales

Después se generaron rutinas con el GUI para que el robot hiciero giro a la izquierda
y giro la derecha, desplazamiento hacia adelante, Dezplasamiento hacia delante, etc.
Finalmente se utilizó el método triploide y este se muestra en la figura 15.

Fig. 14. Desplazamiento del robot hexápodo utilizando el método triploide

6 Conclusiones

Con las nuevas plataformas de desarrollo Hardware y Software, y el no utilizar


métodos convencionales para desarrollar aplicaciones, uno puede proponer alternativas
novedosas para el control de robots, de cualquier tipo, en este caso fue para controlar un
robot hexápodo.

De manera particular se invita a todos para que exploren no sólo las herramientas
utilizadas en el presente proyecto, sino que exploren nuevas herramientas como para
dispositivos móviles y realicen sus propios desarrollos.

7 Trabajo Futuro

El trabajo presentado, cubrió las expectativas que se requirieron en un principio, sin


embargo, hay mucho que explorar, como tratar de controlar un grupo de robots
hexápodos, utilizando tecnología WiFi y con la misma GUI. Esto requerirá implementar
dentro de las arquitecturas de control de los robots hexápodos algoritmos para que los
robots actúen de manera colaborativa.

Referencias

1. Mahapatra A., Shekhar S., Kumar D. Modeling and Simulation of Wave Gait of a Hexapod
Walking Robot: A CAD/CAE Approach. International Journal of Robotics and Automation
(IJRA). Vol. 2, No. 3, pp. 104~111. 2013.
2. Tesis “Diseño e Implementación de un robot autónomo móvil usando tecnológica FPGA”,
Guayaquil, 2015.
3. Tesis “An intellignet hexapod rescue robot”, Bangladesh, 2018
4. Tesis “hexapod robot motor controller using FPGA”, Malaca, 2012

121
Innovaciones Tecnológicas en las Ciencias Computacionales

SIG y Cadenas de Márkov en modelos ambientales,


caso Atoyatempan, Puebla.

Luis Ignacio Juárez Ruanova1, Gladys Linares Fleites1, María de Lourdes Sandoval Solis2,
Karla Mildred Cigarroa Alonso1
1
Posgrado en Ciencias Ambientales, Benemérita Universidad Autónoma de Puebla.
4 Sur No.104, Colonia Centro, C.P. 72000, Puebla, México.
2
Facultad de Ciencias de la Computación. Benemérita Universidad Autónoma de Puebla.
4 Sur No.104, Colonia Centro, C.P. 72000, Puebla, México.
1
[email protected] [email protected]
2
[email protected] [email protected]

Resumen. La problemática ambiental requiere cada vez más del uso de software
para simular las dinámicas que se encuentran relacionados en el sistema ambiente-
sociedad. Los SIG son de gran ayuda para procesar la cartografía en zonas
determinadas en tiempos determinados, aunado a; los modelos estocásticos de
probabilidad que permiten un análisis del comportamiento del sistema, que, de otra
manera, no sería posible en los sistemas complejos. El cambio de uso de suelo es
un sistema ambiente-sociedad, donde las diferentes actividades antropogénicas
transforman el ambiente. Los SIG junto con las cadenas de Márkov, son técnicas
que permiten entender las interacciones y procesos de cambio de uso de suelo. Este
trabajo se realiza en el municipio de Atoyatempan, donde las problemáticas
ambientales requieren de softwares específicos para comprender que los ocasiona.
Palabras Clave: SIG, Cadenas de Márkov, Uso de suelo, Problemática ambiental.

1 Introducción

Los Sistemas de información geográfica son útiles para analizar los patrones de
crecimiento urbano y modelar subsecuentemente el crecimiento de las ciudades. También
en modelos basados en transiciones espaciales, destaca la utilización de métodos
estocásticos como las Cadenas de Márkov.
La planificación territorial supone, principalmente, el establecimiento de los usos más
apropiados para cada porción del territorio. La decisión sobre cuáles son estos usos
depende, entre otros factores, de razones y criterios derivados de la conservación del
ambiente natural y debe tener en cuenta tanto la vocación "intrínseca" de cada punto del
territorio, determinada por su aptitud para cada uso o actividad, como el impacto potencial
que tendrá sobre el medio ambiente la realización de una determinada actividad en ese
punto del territorio.
La identificación de la problemática ambiental, previa a la planificación propiamente
dicha, los SIG son muy útiles por su capacidad de analizar los datos geográficos y
estadísticos que definen el problema a resolver con la planificación territorial y ambiental.
Facilitan la utilización de los diferentes aspectos que inciden en la cuestión a comprender;
permiten, mediante la superposición y otras formas de manipulación de la información,
adaptar datos y observar algunas de las interrelaciones [1].
El presente trabajo se ha realizado en el municipio de Atoyatempan, Puebla, México.
Los principales problemas que enfrenta este municipio en la actualidad son: la falta de
planificación para el crecimiento urbano y el crecimiento en la demanda del agua para
uso doméstico y la agricultura.

122
Innovaciones Tecnológicas en las Ciencias Computacionales

2 Métodos
Se llevó a cabo un análisis de cambio de uso de suelo y vegetación utilizando la
cartografía de las series II, III, IV y VI del INEGI a una escala de 1:250,000; este análisis
permitió calcular la matriz de transición desde el año 1990 hasta el año 2015 y sus
correspondientes matrices de probabilidades de transición y patrones y tasas de cambio.
La probabilidad de transición de cada clase de la matriz es proporcional a la superficie
remanente de la misma clase entre el año de inicio y el año final de análisis [2].

P𝑖𝑗 = 𝑆𝑖𝑗 (𝑓𝑒𝑐ℎ𝑎 𝑖𝑛𝑖𝑐𝑖𝑎𝑙) 𝑆𝑗(𝑓𝑒𝑐ℎ𝑎 𝑓𝑖𝑛𝑎𝑙) (1)

Donde Sij es la superficie del elemento “ij” de la matriz de transición de cobertura/uso


de suelo en fecha inicial y Sj es la superficie de la clase de cobertura/uso de suelo “j” en
fecha final. Se cumple que:
(2)
∑𝑃𝑖𝑗 = 1

Se obtuvieron las superficies para cada tipo de vegetación y se calcularon las tasas de
deforestación [3].
La distribución de probabilidad de transición de un estado a otro puede representarse
por la matriz de transición P = (pij) donde cada elemento de la posición (i, j) representa
la probabilidad pij.
La cuantificación de los procesos de cambio cartografiados se realizó a través de
matrices markovianas de transición y las matrices de probabilidades de cambio
calculadas. A partir de las matrices de probabilidades de transición se construyeron los
modelos de flujos que muestran la dinámica entre los principales tipos de vegetación y
usos del suelo para las series.

La cadena se mueve de un estado a otro y la probabilidad pij de moverse del estado si al


estado sj en un paso es llamado probabilidad de transición y puede escribirse como
Pr (X1 = sj | X0 = si) (3)

3 Resultados y Discusión

El municipio de Atoyatempan a lo largo de tres décadas ha cambiado en su estructura


paisajista, esto queda demostrado en el análisis de cambio de uso de suelo presentado en
este trabajo. Estos cambios obedecen principalmente a las actividades agropecuarias y
comerciales que han marcado el rumbo de su historia agrícola.

123
Innovaciones Tecnológicas en las Ciencias Computacionales

Tabla 1. Matriz de transición de tipo de suelo y vegetación en hectáreas (ha) de la serie


II a la serie VI del INEGI escala 1:250000 correspondiente al periodo 1990 a 2015.
Corresponden a las coberturas de: Agricultura de riego, agricultura de temporal, pastizal
inducido, selva baja caducifolia y urbano. Pérdida anual en superficie (Pa) e Índices de
variación multitemporal (La Estabilidad de Localización (EL) y la Estabilidad de
Residencia (ER)) de tipo de suelo y vegetación en hectáreas (ha).

Tipo de suelo Agricultura R. Agricultura T. Pastizal Selva Urbano Total Tasa de cambioPa EL ER
Agricola R. 838.25 25.66 88.53 5.34 18.87 976.65 2.99 39.91 95.91 85.82
Agricola T. 941.99 484.43 9.97 0.47 5.71 1442.57 -4.76 -44.05 103.05 -64.12
Pastizal 8.47 0.00 25.18 0.00 0.00 33.64 6.40 4.29 87.26 70.64
Selva 2.26 7.46 0.00 62.76 0.00 72.48 -0.26 -0.19 100.26 -5.40
Urbano 23.88 0.00 0.00 0.00 129.78 153.66 0.02 0.03 99.98 0.46
Total 1814.84 517.55 123.68 68.57 154.37 2679.01

Tabla 2. Matriz de Transición de Probabilidades del cambio de uso de suelo y vegetación


en el municipio de Atoyatempan, Puebla para el período 1990- 2015.

Los resultados mostraron que la agricultura de temporal se sustituyó por la agricultura


de riego en este periodo, por lo que la disponibilidad de agua disminuyó en el municipio,
debido también a que la zona tiene un balance hídrico no favorable con pendientes fuertes
hacia la parte oeste, condiciones que no son idóneas para los asentamientos humanos.
Mientras que el uso de suelo urbano ganó 0.71ha, la selva ha disminuido 3.91ha, en
contraste con los pastizales inducidos, que aumentaron 90.04ha, por actividades
antrópicas como la ganadería (Tabla 1).
El cambio de uso de suelo y vegetación se puede explicar en una sucesión de variables
alectorias que se desarrolla en funcion del tiempo. Considerando las categorías de uso y
el periodo de tiempo para el análisis de la dinámica de cambio de uso de suelo. Las
probabilidades se basan en periodo de tiempo del el año inicial y el año final,
considerándose como un proceso estocástico. (Tabla 2).

La reestructuración del sistema agroalimentario en el municipio, se relaciona con un


nuevo modelo, modifica los procesos productivos en base a los requerimientos de
consumo y de comercio de los municipios colindantes, siendo la actividad ganadera el
principal agente transformador de la región en el año 1985 al año 2014 (Figura 1 y 2).

Las principales causas que amenazan la cobertura vegetal nativa son: la presión
antropogénica sobre los recursos forestales, la práctica de actividades como la roza, tumba
y quema, y la apertura de nuevos espacios para el establecimiento de cultivos en sistemas
de lomeríos. Esto ha ocasionado un desequilibrio ambiental, poniendo en peligro la
supervivencia de las poblaciones animales y vegetales que habitan este patrimonio
ecológico. Sin embargo, los procesos asociados con la dinámica de los cambios ocurridos
en la cobertura vegetal y uso del suelo, es uno de los principales factores que determina
la permanencia, disminución y extinción de los ecosistemas.
Los SIG son herramientas que permiten identificar y representar espacialmente las
áreas más susceptibles a cambiar. Además, ayudan a comprender los procesos y la
dinámica de cambio que experimentan las distintas coberturas terrestres y usos del suelo
de un territorio en específico [4].

124
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 1. Uso suelo y vegetación en hectáreas (ha) de la serie I del INEGI escala
1:250000 correspondiente al periodo 1985. Corresponden a las coberturas de:
Agricultura de riego, agricultura de temporal, pastizal inducido, selva baja
caducifolia, urbano y matorral xerófilo.

Fig. 2. Uso suelo y vegetación en hectáreas (ha) de la serie VI del INEGI escala
1:250000 correspondiente al periodo 2014. Corresponden a las coberturas de:
Agricultura de riego, agricultura de temporal, pastizal inducido, selva baja
caducifolia y urbano.

125
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 3. Cadenas de Márkov. Corresponden a las coberturas de: Agricultura de


riego, agricultura de temporal, pastizal inducido, selva baja caducifolia y
urbano.

La cadena de Márkov establece las relaciones entre las diversas categorías o usos del
suelo y las probabilidades de cambio de ese uso en porcentaje, lo cual es tradicionalmente
modelado, sin tener en cuenta las variables explicativas y descriptivas, ya que se basa
exclusivamente en el análisis de la dinámica interna del sistema (Figura 3). Muestra la
dinámica de la transición probabilística de cada una de las coberturas en el sistema en
porcentaje.
Los modelos estocásticos como las cadenas de Márkov permiten determinar un cambio
de uso del suelo en 25 años, mostrando que la selva baja caducifolia pasa a agricultura de
temporal y está a su vez se transforma a agricultura de riego, en zonas no idóneas para
estas actividades antrópicas.
Los procesos de recuperación de zonas agrícolas incrementan la demanda de agua para
la agricultura de riego y agricultura de temporal, lo que ocasiona disminución en los
cuerpos de agua [5].
Esto es debido a la falta de planeación en los asentamientos humanos y políticas
públicas, que requieren modelos social-ambientales para poder determinar un
ordenamiento ecológico del territorio.
El crecimiento poblacional, las políticas públicas y las actividades de producción y de
comercio, influyen de manera significativa en los procesos de transformación de las
coverturas vegetales. Es de suma importancia revisar los planes de desarrollo municipal
y estatal, junto con las políticas de gestión ambiental que ayuden a prevenir la
disminución de coberturas de vegetación nativas.
La disponibilidad, calidad, cantidad y diversidad del recurso suelo se encuentra
amenazada por un manejo inadecuado de ellos, cuyas consecuencias podrian afectar el
desarrollo del municipio.

126
Innovaciones Tecnológicas en las Ciencias Computacionales

Referencias

1. Bosque Sendra, J.: Técnicas de evaluación multicriterio y Sistemas de información geográfica


en la ordenación del territorio, en Portugal-España. Ordenación territorial del suroeste
comunitario. Coordinadores: A-J. Campesino Fernández y Carmen Velasco Bernardo.
Universidad de Extremadura, Servicio de publicaciones, Cáceres, pp. 69-76 (1996)
2. Díaz Gallegos J.R,; Mas J.F,; Velásquez A.: Monitoreo de los patrones de deforestación en el
Corredor Biológico Mesoamericano, México. Interciencia 33, 12: 882-890 (2008)
3. FAO.: Forest Resources Assessment 1990. Forestry Paper 130. FAO. Roma, Italia. 153 pp
(1996)
4. Camacho Sanabria, J.M,; Juan Pérez, J.I,; Pineda Jaimes, N.B.; Cadena Vargas, E.G.; Bravo
Peña, L.C.; & Sánchez López, M. (2015). Cambios de cobertura/uso del suelo en una porción
de la Zona de Transición Mexicana de Montaña. Madera y bosques. Scielo. No 21, pp. 93-
112. (2015).
5. López Vazquez, V.; Balderas Plata, M.; Chávez Mejía, M.; Juan Pérez, J., & Gutiérrez
Cedillo, J.: Land Use Change and its Socio-Economic Implications in the Mazahua Area of
the Mexican. Highlands.CIENCIA Ergo-Sum, No. 22, pp. 136-144. (2015)

127
Innovaciones Tecnológicas en las Ciencias Computacionales

Análisis de sensibilidad mediante software en


programación lineal
María Beatriz Bernábe Loranca, Luis Alejandro Cabrera Cruz, Rogelio
González Velázquez, Gerardo Martínez Guzmán
Facultad de Ciencias de la Computación,
Benemérita Universidad Autónoma de Puebla, México, Puebla
1
[email protected]

Resumen: Este trabajo presenta el análisis de sensibilidad de un problema de


programación lineal continua de asignación de recursos. Se desarrolló un programa
para que de forma iterativa y considerando el modelo planteado, se realicen una
serie de modificaciones en la función objetivo y en las restricciones respetando el
intervalo que arroja el análisis de sensibilidad de Solver u otro software de
optimización. Estos valores permitidos por los optimizadores, ayudan a que el
usuario observe los cambios que implican variaciones validas de los parámetros del
modelo, de tal manera que se cumpla con el propósito de la Investigación de
Operaciones: La toma de decisiones. El programa se desarrolló en Visual Basic en
el entorno de Excel para facilitar el manejo de los datos mientras que la solución al
modelo fue a través de Solver (complemento de Excel). Por último, se obtuvieron
dos tablas que muestran el impacto que existe sobre la Función Objetivo (FO), en
los coeficientes de la FO y sobre los coeficientes tecnológicos.
Palabras Clave: Asignación de recursos, Análisis de Sensibilidad, Solver, Lingo

1 Introducción
La Programación Lineal (PL) estudia el problema de minimizar o maximizar una
función lineal en presencia de restricciones lineales de igualdad y/o desigualdad.
Un modelo de PL considera que las variables de decisión tienen un comportamiento
lineal, tanto en la función objetivo como restricciones del problema. En este sentido, la
PL es una de las herramientas más utilizadas en la Investigación de Operaciones debido
a que por su naturaleza se facilitan los cálculos y en general, permite una buena
aproximación de la realidad.
En programación matemática, el término algoritmo simplex se refiere a un conjunto de
métodos muy usados para resolver problemas de programación lineal, en los cuales, se
busca el máximo o mínimo de una función lineal sobre un conjunto de variables que
satisfaga un conjunto de inecuaciones lineales: Un algoritmo Simplex es un algoritmo de
pivote.
El algoritmo Simplex primal fue desarrollado por el matemático George Dantzig en
1947 [1, 2, 3, 4] y procede examinando vértices adyacentes del poliedro de soluciones.
Un método similar es el método de descenso Nelder-Mead (o ascenso) simplex que se
entiende como un método numérico que busca un mínimo (o máximo) local de una
función cualquiera examinando en cada paso los vértices de un simplex [1, 2, 3]. A pesar
de que la teoría alrededor de la Programación Lineal es extensa, para este trabajo hemos
elegido un par de aspectos relevantes para el problema de interés. En este punto, el
presente artículo centra su atención en proporcionar una herramienta útil que permite
evaluar el análisis de sensibilidad para un problema de asignación de recursos. Para este
propósito, se ha desarrollado un programa que resuelve de manera iterativa el manejo de
la variabilidad de valores en el análisis de sensibilidad, de tal modo que se cuenta con una
herramienta que indica al usuario el intervalo adecuado de los parámetros del modelo.
Esto implica que es posible mantener que los valores correctos de sensibilidad se
encuentren en el rango permitido que informan las tablas de sensibilidad de Solver.

128
Innovaciones Tecnológicas en las Ciencias Computacionales

En particular, este trabajo se centra en proveer una aplicación sencilla que permite
evaluar y manipular el análisis de sensibilidad de un problema de asignación de recursos.
Para este propósito se ha desarrollado un programa que resuelve de manera iterativa el
uso correcto de los parámetros del problema. El programa se codificó en Visual Basic
desde el entorno de Excel utilizando las funciones del complemento Solver. El acceso al
programa es dotado de una interfaz sencilla para cualquier usuario.

Este artículo presenta en sus próximas secciones los preliminares teóricos básico. La
siguiente sección se ocupa de explicar el informe de sensibilidad calculado por Solver
para un caso de programación lineal continua. La siguiente sección describe la
programación del software que evalúa la sensibilidad del problema Windor Glass [2].
Finalmente se discuten las conclusiones.

5 Preliminares Programación Lineal


La programación lineal se aplica a modelos de optimización en los que las funciones
objetivo y restricciones son estrictamente lineales. La técnica se aplica en una amplia
variedad de casos, en los campos de agricultura, industria, transporte, economía, salud,
ciencias sociales y de la conducta, operaciones militares entre otros. Los componentes
de un modelo de optimización son

a. Variables
Las variables son números reales mayores o iguales a cero 𝑋𝑖 ≥ 0
En caso de que se requiera que el valor resultante de las variables sea un número
entero, el procedimiento de resolución se denomina Programación entera.
b. Restricciones
Las restricciones pueden ser de la forma:
N
Tipo 1: A j £ å (aij )( xi )
i =1
N
Tipo 2: B j £ å (bij )( xi )
i =1
N

j å ij i
Tipo 3: C £ (c )( x )
i =1

Donde
A = valor conocido a ser respetado estrictamente
B = valor conocido que debe ser respetado o puede ser superado;
C = valor conocido que no debe ser superado;
j = número de la ecuación, variable de 1 a M (número total de restricciones); a; b; y,
c = coeficientes técnicos conocidos; X = Incógnitas, de 1 a N; i = número de la
incógnita, variable de 1 a N.
En general no hay restricciones en cuanto a los valores de N y M. Puede ser N =
M, N > M o N < M.
Sin embargo, si las restricciones del Tipo 1 son N, el problema puede ser
determinado, y puede no tener sentido una optimización.
Los tres tipos de restricciones pueden darse simultáneamente en el mismo problema
y la función objetivo puede ser:
N N
Max ! = å f i xi o Min ! = å f i xi
i =1 i =1

129
Innovaciones Tecnológicas en las Ciencias Computacionales

6 Problema y modelo original


El problema de asignación de recursos bajo estudio es clásico de esta área. Como caso
de estudio, se eligió el problema de Wyndor y con Solver se resolvió la optimización [2].
Solver es un programa de complemento de Microsoft Excel que puede usarse como
optimizador, es útil para encontrar un valor óptimo (mínimo o máximo) para una fórmula
en una celda. Esta es la celda objetivo y es sujeta a restricciones o limitaciones en los
valores de otras celdas, es decir, Solver trabaja con un grupo de celdas llamadas celdas
de variables de decisión o, simplemente, celdas de variables que se usan para optimizar
las fórmulas en las celdas objetivo y de restricción. Solver ajusta los valores de las celdas
de variables de decisión para que cumplan con los límites de las celdas de restricción y
proporcionar el resultado en la celda objetivo.

Problema
La Wyndor Glass CO, produce artículos de vidrio de alta calidad, que incluye ventanas
y puertas de vidrio y tiene tres plantas.
Debido a una reducción de las ganancias, la alta administración ha decidido reorganizar
la línea de producción de la compañía [2]. Se descontinuarán varios productos no
rentables y se dejará libre una parte de la capacidad de producción para emprender la
fabricación de dos productos nuevos que tienen ventas potenciales grandes. La solución
al problema usando el método grafico se muestra en la figura 1 y la interfaz de Solver
puede verse en la figura 2.
x1 £ 4
Maximizar 3x1 + 5x2 Sujeto a g ( x) = 2 x2 £ 12 xi > 0;
3x1 + 2 x2 £ 18

Solución Gráfica
Este problema tiene sólo dos variables de decisión que puede expresarse en R2. El
primer paso es identificar los valores de (x1, x2) permitidos por las restricciones junto a
las restricciones de no negatividad x1 ³ 0, x2 ³ 0 , las cuales exigen que el punto (x1, x2)
se encuentre en el lado positivo de los ejes. Por otro lado, la restricción x1 £ 4 significa
que (x1, x2) no puede estar a la derecha de la recta x1 = 4 y 2 x2 £ 12 (o de modo
equivalente, x2 £ 6 ) implica que la recta 2 x2 = 12 debe agregarse a la frontera de la
región correcta. La última restricción, 3x1 + 2 x2 = 18 se encuentra al graficar los puntos
(x1, x2) tales que 3x1 + 2 x2 = 18para completar la frontera. Los puntos que cumplen

3x1 + 2 x2 £ 18 son aquellos que están sobre o por debajo de la recta 3 x + 2 x = 18 . Esta
1 2

recta es la que limita e indica que más allá de ella la desigualdad no se satisface la
restricción.
Finalmente, dentro de esta región factible, el punto que maximiza el valor de
Z = 3x1 + 5 x2 es (2,6). Cualquier recta construida de esta manera para cualquier valor
seleccionado de Z, implica que 5 x2 = -3x1 + Z o x2 = 3 x1 + 1 Z . Esta última ecuación
5 5
se conoce como pendiente-ordenada al origen de la función objetivo. La figura 1 muestra
que esta recta pasa por el punto (2, 6), lo cual indica que la solución óptima es
x1
= 2, x2 = 6 . La ecuación de esta recta es 3 X + 5 X = 3(2) + 5(6) = 36 = Z , lo cual indica
1 2

que el valor óptimo de Z es 36.

130
Innovaciones Tecnológicas en las Ciencias Computacionales

Esta solución revela que la Wyndor Glass debe fabricar los productos 1 y 2 a una tasa
de 2 y 6 lotes por semana respectivamente con una ganancia total resultante de 36 000
dólares semanales, es decir, no existe otra mezcla de los dos productos más rentable.

Fig. 1. Solución gráfica de Windor Glass

Modelo en Excel

Fig. 2. Modelo Matemático original del Problema Wyndor para resolver con Solver

Al resolver el modelo en Solver se obtienen los siguientes resultados (ver Tabla1)

Tabla 1. Problema Wyndor expresado con Solver


Función Objetivo X1 X2 Costo de la Función
Objetivo FO
3 5 Calculado por
Solver
Restricciones X1 X2 Resultados Coeficiente
Variables de holgura tecnológico
R1 1 0 Calculado por solver <= 4
R2 0 2 Calculado por solver <= 12
R3 3 2 Calculado por solver <= 18

El modelo introducido en Solver permite identificar los coeficientes de la FO así como


los coeficientes de las restricciones, los coeficientes tecnológicos del lado derecho y los
valores de las variables de decisión que optimizan FO.
Para evaluar la sensibilidad del modelo, debe observarse con cuidado las dos repuestas
que Solver arroja al terminar su ejecución (ver tabla 2, figura 3 y figura 4).

131
Innovaciones Tecnológicas en las Ciencias Computacionales

Tabla 2. Problema Wyndor con resultados de sensibilidad


Función Objetivo X1 X2 Costo de la FO
3 5 36
Restricciones X1 X2 Resultados Coeficientes tecnológicos
Variables de
holgura
R1 1 0 2 <= 4
R2 0 2 12 <= 12
R3 3 2 18 <= 18

Fig. 3. Resultados de Solver. Solución Óptima, Costo de la Función Objetivo


y Variables de Holgura

Fig. 4. Informe de Sensibilidad

En la figura 4 se muestra el reporte de análisis de sensibilidad de Solver; se observan


dos secciones: 1) Celdas de variables y 2) Restricciones. La 1) es útil para obtener los
intervalos de optimalidad de los costos que se encuentran en las celdas $G$9 y $H$9.
Esto significa que dichos costos pueden variar en el intervalo [0,7.5] y [0, ∞] sin que
cambie la solución óptima respetando las disminuciones y aumento permisibles dados en
las columnas. De 2) se determinan los intervalos de factibilidad y el valor óptimo que se
ve modificado por el precio sombra en proporción al aumento unitario de los lados
derechos de cada restricción. Estos intervalos pueden verse en las celdas $I$6, $I$7 y
$I$8, por lo tanto dichos intervalos quedan respectivamente entre [0, ∞] que no afecta al
valor objetivo ya que el precio sombra es cero. El siguiente es [6, 18], esto implica que el
valor óptimo aumenta o disminuye $1.5 por cada unidad que aumente o disminuya el
valor de la celda $I$7. Finalmente el tercer lado derecho podrá variar en el intervalo [12,
24] y el valor optimo cambiará en $1 por cada aumento o disminución según sea el caso.

132
Innovaciones Tecnológicas en las Ciencias Computacionales

7 Programación del Software para el análisis de sensibilidad

Algoritmo en pseudocodígo
1. Construir el modelo del problema (FO, Restricciones, # de variables
de decisión)
2. Mediante el método Simplex, resolver el modelo (En este caso con
Solver)
3. Obtener Informe de sensibilidad (Solver)
4. Elegir en que parte se quiere modificar el modelo (Coeficientes de
FO o de restricciones)
4.1 Si se quiere modificar coeficientes de la FO entonces
4.1.1 Selecciona la opción de “Cambio de coeficientes en la FO”
4.1.2 Modifica los coeficientes de las variables dentro o fuera del
intervalo permitido
4.1.3 Obtener una tabla con todas las corridas e impactos en el modelo
después de los cambios.
4.2 Si se quiere modificar coeficientes de restricciones entonces
4.2.1 Selecciona la opción de “Cambio de coeficientes tecnológicos”
4.2.2 Modificar los coeficientes dentro o fuera del intervalo permitido
4.2.3 Obtener una tabla con todas las corridas e impactos en el modelo
después de los cambios.
5. Fin.

La interfaz del programa se muestra en las figuras 5, 6 y 7:

Fig. 5. Pantalla Inicial del Software. Muestra 3 botones que nos permite, resolver el modelo actual
y decidir en qué parte del problema queremos hacer modificaciones

133
Innovaciones Tecnológicas en las Ciencias Computacionales

Fig. 6. Cambio en coeficientes de la F.O. Selecciona el parámetro que se desea modificar


y muestra el intervalo permitido para hacer las modificaciones

Cambio de Coeficientes Tecnológicos

Fig. 7. Interfaz que permite modificar el valor de los coeficientes tecnológicos.


Nuevamente muestra el intervalo permitido para realizar modificaciones
del lado derecho de una o de más restricciones

8 Presentación de resultados
El software desarrollado presenta los resultados en dos tablas diferentes, una
relacionada con las modificaciones que se hicieron en los coeficientes de la Función
Objetivo y la otra con respecto a las modificaciones realizadas a los coeficientes
tecnológicos.

Tabla 3. Muestra el historial de modificaciones que sufrió el modelo original


con respecto al cambio de los coeficientes de la F.O. (5 corridas del programa)

Coeficiente X1 Coeficiente X2 Costo de la FO


0 0 0
2.5 5 35
3 5 36
3 25 156
3 36 22

Tabla 4. Muestra el historial de modificaciones que sufrió el modelo original con respecto al
cambio de los coeficientes tecnológicos de una o de varias restricciones. (8 corridas del programa)

Coeficiente Coeficiente Coeficiente X1 X2 Costo de la FO


tecnológico R1 tecnológico R2 tecnológico R3
0 0 0 0 0 0

134
Innovaciones Tecnológicas en las Ciencias Computacionales

2.5 12 18 2 6 222
4 12 18 2 6 222
4 7 18 3.666663.5 137
4 12 18 2 6 222
4 12 18 2 6 222
5 17 22 1.6666 8.5 311
4 12 18 2 6 36

La implementación de este software permite interpretar el análisis de sensibilidad de


cualquier modelo de programación lineal continua. En la tabla de resultados se consulta
el comportamiento de todos los parámetros con los distintos cambios que el usuario
decida realizar permitiéndole concluir de manera exitosa su análisis y cumplir con el
objetivo de la Investigación de Operaciones: tomar una decisión [5].

La decisión óptima para este problema se ha descrito en la sección 3: fabricar los


productos 1 y 2 a una tasa de 2 y 6 lotes por semana respectivamente con una ganancia
total resultante de 36 000 dólares semanales, es decir, no existe otra mezcla de los dos
productos más rentable. Por otro lado, un ejemplo del análisis de sensibilidad es la
holgura de 2 horas en la planta (ver figura 3 sección 3), entonces se debe tomar la decisión
de utilizar esas 2 horas para el personal de la planta.

Referencias
1. Taha H.; Investigación de operaciones. 9ª Edición: Pearson, pp. 13-24 (2012).
2. Hillier F., Liberman G.; Introducción a la Investigación de operaciones. 9ª edición Mc Graw
Hill, pp. 21-23 (2010).
3. Prawda J.; Métodos y Modelos de Investigación de Operaciones Vol 1 Modelos
Determinísticos. Noriega (Eds): LIMUSA, pp. 7-9 (1990).
4. Bazaraa M.; Linear Programming and Network Flows. 2a Ed, LIMUSA, pp 55-60 (2005).
5. Alvarado Boirivant Jorge, El Análisis Post-Optimal en Programación Lineal Aplicada a la
Agricultura, Reflexiones, vol. 90, núm. 1, 2011, pp. 161-173.

135
Innovaciones Tecnológicas en las Ciencias Computacionales

Prueba de Shapiro –Wilk a una Muestra de


Nanoreservorios de Taninos Extraídos de Mimosa
Tenuiflora (Tepezcohuite) Encapsulados en Matrices de
TiO2.

Marcos González Flores2, Albino Moreno Rodríguez1, José Ítalo Cortez2,


Adrián Hernández Santiago1,
Facultad de Ciencias Químicas1, Facultad de Ciencias de la Computación2,
Benemérita Universidad Autónoma de Puebla.
[email protected], [email protected],[email protected]

Resumen. Se utilizó la acción de los principios activos del tepezcohuite (taninos


condensados) para valorar la capacidad cicatrizante en heridas quirúrgicas asépticas
de 1 cm de diámetro en conejos de raza Nueva Zelanda, para lo cual se tomó una
muestra de 6 conejos ,a los cuales se les aplicó 3 métodos cicatrizantes, el objetivo
de esto es demostrar que los datos tienen un comportamiento normal, dado que es
primordial, para aplicar pruebas estadísticas paramétricas y los tratamientos
utilizados fueron nanoreservorios de Tan/TiO2-150 en peso de taninos en un 60%
respecto a los taninos condensados como tales, TiO2 y la solución salina isotónica.

Palabras claves. Nanoreservorios de Taninos,Mimosa, Tenuiflora(Tepezcohuite),


Shapiro-Wilk, TiO2, Normalidad, Solución Salina Isotónica, S.S.I.

1 Introducción

Las heridas producidas por quemaduras afectan la calidad de vida de las personas y
físicamente deja deformidades y pérdida de las funciones motrices. Son lesiones que
afectan las integridades de la piel y que consiste en la pérdida de sustancia de la superficie
corporal producidas por la acción de agentes de tipo físicos (térmicas), químicas,
biológicas y de la cantidad de energía involucrada. El tiempo de acción de éstas y las
características de la zona afectada, determinan el tipo de lesión y sus repercusiones, las
cuales pueden ser locales o con repercusión sistémica y ocasionan un desequilibrio
bioquímico por desnaturalización proteica, edema y pérdida del volumen del líquido
intravascular, debido a un aumento de la permeabilidad vascular. El grado de la lesión
tisular es el resultado de la intensidad del efecto del agente quemante y la duración de la
exposición puede variar desde una lesión relativamente menor y superficial hasta pérdida
extensa y severa de piel [1-4]. Las heridas de tipo crónico pueden ser el resultado de
lesiones físicas, como una presión externa sostenida o pueden ocurrir en pacientes con
diabetes o con trastornos vasculares y las heridas agudas pueden producirse cuando la
piel intacta sufre un daño externo [11].
Desde hace 10 años se han desarrollado métodos alternativos de aplicación para
mejorar la evolución de las heridas por quemaduras como la aplicación de gel hidroactivo,
apósitos oclusivos hidrocoloide, apósitos de hidrofibra con plata iónica, vendas
extensibles, entre otros, sin embargo, la mayoría de ellos son inapropiados porque
presentan una actividad cicatrizante muy lenta o por su alto costo económico,
traduciéndose en una gran carga para los servicios de salud y para el paciente [5-10].
México cuenta con numerosas especies de plantas y árboles que se utilizan con fines
terapéuticos entre ellos el árbol de tepezcohuite, nombre de raíces de la lengua náhuatl
que proviene de la palabra tepezcuahuitl, que significa “árbol del cerro que sangra”. Éste
era utilizado por los mayas desde hace más de 10 siglos como cura para enfermedades de
la piel, como son heridas, quemaduras, dermatosis, acné [12-13].

136
Innovaciones Tecnológicas en las Ciencias Computacionales

Estudios realizados por J. Fournair et. al., el laboratorio Industrial de Biología de


París, el laboratorio Safepharm Ltd, de Londres Inglaterra y el Instituto Mexicano del
Seguro Social sobre la actividad bacteriostática, fisiológica y su uso en cosmetología del
tepezcohuite, llegan a la conclusión que la corteza del tepezcohuite, puede ser utilizada
ampliamente en quemaduras, demostrando que no posee efectos secundarios y que
presenta un efecto antimicrobiano y además que puede utilizarse en heridas infectadas y
abiertas [19-24]. El traumatólogo y ortopedista José Mijangos Velásquez, informa sobre
los excelentes beneficios del uso de tepezcohuite en pacientes con quemaduras, heridas,
fracturas, y ulceras varicosas [25].
Por otra parte, otra sustancia que se utiliza para el tratamiento de infecciones agudas
provocadas por quemaduras o heridas graves es la solución salina isotónica (S. S. I.).
Minimiza la irritación y la inflamación de los tejidos. En concentración isotónica, la
solución salina no produce daños conocidos en el tejido y se ha demostrado que expele
los detritos de los conductos con gran eficacia como el hipoclorito de sodio. La S. S. I.
produce gran desbridamiento y lubricación. La irrigación con solución salina sacrifica la
destrucción química de la materia microbiológica y la disolución de los tejidos
mecánicamente inaccesibles. El desbridamiento es una parte importante del proceso de
curación en quemaduras o heridas severas, lo cual acelera el proceso de cicatrización, ya
que las células nuevas no tienen tiempo de desplazarse debajo del tejido muerto.

2 Desarrollo

Se realizaron tres síntesis de nanoreservorios en forma independiente por la técnica del


sol-gel. El nanoreservorio de TiO2 (referencia) al cual denominamos Tratamiento C y
los nanoreservorios de Tanino, denominado tratamiento A y TiO2 con concentración de
taninos condensados: Tanino/TiO2 con 150 mg en masa de taninos condensados,
denominado tratamiento B, el cual se etiqueta como Tan/TiO2-150
respectivamente(Tabla 1). La síntesis se realizó con la ayuda de un sistema de reflujo con
agitación constante a 70°C de temperatura de reacción. Todos los nanoreservorios se
sintetizaron en las mismas condiciones en forma separada. La única variable fue la
concentración en masa de taninos condensados en mg.
Los nanoreservorios TiO2 y Tan/TiO2-150 se caracterizan con la ayuda de un
espectrofotómetro UV-VIS de Varian modelo Cary 100, el cual tiene una esfera de
integración acoplada de reflectancia difusa recubierta con MgO como estándar de
reflectancia certificada marca Labsphere con una reflectividad del 100% y un
espectrofotometro IR con transformada de Fourier marca Varian modelo Scalibur
Digilab).
Los nanoreservorios obtenidos se aplicaron a heridas quirúrgicas no crónicas poco
profundas realizadas en el dorso de conejos de raza Nueva Zelanda, obteniéndose los
resultados obtenidos en la tabla 2. Los datos experimentales se sometieron a la prueba de
Shapiro-Wilk,[26] para determinar si el experimento tenía una distribución normal.

Los conejos se clasificaron en los tratamientos A, B y C, como se muestra en la tabla 1.

Tabla 1. Descripción de los tratamientos realizados en conejos de raza Nueva Zelanda.


Tratamiento “A” Tratamiento “B” Tratamiento “C”
Conejos 1, 2 Conejos 3, 4 Conejos 6, 7
Nanoreservorio Tanino Nanoreservorio Tan/TiO2-150 TiO2

Tabla 2. Cuadro comparativo del proceso de cicatrización de seis conejos, medidas en mm2.
Con Conejo 2 Conejo 3 Conejo 4 Conejo 5 Conejo 6
ejo 1
Día S.S.I T S.S. Tan S.S.I. Tan/Ti S. Tan/ S.S.I Ti S. Ti
a I. O2 S. TiO2 O2 S.I O2
n I. .

137
Innovaciones Tecnológicas en las Ciencias Computacionales

X X X3 X X5 X6 X7 X8 X9 X10 X1 X1
1 2 4 1 2
AREA DE CICATRIZACIÓN EN mm2
0 2 2 26.7 2 28.7 26.7 26 25.7 24.3 25 21 23.
5 5 6 .3 7
. .
2 3
1 2 2 25.3 2 27.1 24.1 24 23.2 22.7 23. 19. 22.
4.5 4 4 .6 7 6 1
. .
7 1
2 2 2 22.3 1 24.6 19.7 22 19.8 19.6 19. 16. 19.
1.8 2 9 .4 9 5 8
.
7
3 1 1 17.8 1 21 15.3 16 13.7 16.7 17. 13. 15
5.7 6 5 3 3
.
3
4 1 1 16.1 1 17.2 13.7 15 12.1 15.1 15. 12. 13.
4.5 4 3 .2 0 5 7
. .
6 7
5 1 1 14.6 1 13.8 11.4 14 9.9 14.7 13. 10. 11.
2.3 2 1 .6 4 4 1
. .
8 4
6 1 1 12.4 8 11.7 8.7 13 8.3 13.3 12. 8.3 10.
1 0 . .7 4 7
. 7
8
7 9. 8 8.9 6 9.5 6.8 10 5.7 12.6 11. 6.7 8.8
7 . . .3 7
3 8
8 8 7 6.1 4 8 4.1 8 3.7 11 10. 5.7 7.3
. . 8
4 1
9 6. 6 4.8 2 5.8 2.7 5. 1.5 9.5 8.7 4.9 5.8
7 . . 9
1 7
1 5. 5 3.5 0 3.5 0.6 3. 0.8 7.3 6.4 3.1 3.5
0 6 . 6
6
1 4. 4 2.7 0 2.4 0.2 2 0 5.1 4 2.8 2.5
1 9 .
5
1 1. 1 1.3 0 1.3 0 1. 0 3 2 1.5 1.7
3 9 . 5
5
1 0. 0 0.4 0 0.4 0 0. 0 2.5 1.2 0.3 0.9
4 4 . 6
8
1 0 0 0 0 0 0 0 0 1.1 0 0 0.3
5

Si los datos que se tienen, provienen de un experimento cualitativo, es necesario


comprobar, antes de aplicar un análisis estadístico, si las variables aleatorias estudiadas
tienen una distribución normal, si así fuera el caso entonces se pueden aplicar los métodos
estadísticos paramétricos y en caso contrario los no paramétricos. Uno de los métodos
más usados para probar la normalidad de un conjunto de datos, es la prueba de Shapiro-
Wilk [26], por ser una de las más sencillas y potentes. La única condición es que el tamaño
de la muestra debe ser igual o menor de 50, como es el caso de nuestro experimento, los
resultados se muestran en la tabla 2.
Prueba de Shapiro-Wilk
a. Hipótesis

138
Innovaciones Tecnológicas en las Ciencias Computacionales

𝐻! : La muestra aleatoria tiene distribución normal


𝐻" : La muestra aleatoria no tiene distribución normal
Con un nivel de significancia ∝=0.05
b. Estadístico de prueba

𝑏'
𝑊!"#!$#"%& = (1)
∑)(*+ (𝑥( − 𝑥̅ )'

ó
𝑏'
𝑠'
con
)

𝑠 ' = - (𝑥+ − 𝑥̅ )' (2)


(*+

!
donde b= ∑"#$ 𝑎 #𝑥!%"&$%' % (3)
" !
5 578
Siendo K= si n es par y K= si n es impar
6 6
𝑎9 es un valor de un coeficiente que se puede encontrar en la tabla de coeficientes de
Shapiro Wilk (Tabla 3).

Tabla 3. Coeficientes del estadístico de Shapiro-Wilk.

Tabla 4. Distribución del estadístico de Shapiro-Wilk.

139
Innovaciones Tecnológicas en las Ciencias Computacionales

𝑥579<8 -𝑥9 son las diferencias sucesivas que se obtienen al restar el primer valor al
último valor, el segundo al penúltimo y así sucesivamente hasta restar el último al primer
valor.
c. Zona de aceptación 𝑯𝟎
Se rechaza la hipótesis nula 𝐻! si: la 𝑊"#$"%$#&# es menor que la 𝑊'#(%$#&#
𝑤> < 𝑤?

3 Aplicación de la Prueba de Shapiro-Wilk a los Datos de la Tabla 2

A continuación se aplicará la prueba de Shapiro-Wilk a cada una de las variables de


la tabla 2, planteando las hipótesis correspondientes a manera de ejemplo, para las
variables 𝑥" , 𝑥# y 𝑥$ y es similar para las demás variables
a. Hipótesis

𝐻! : la variable aleatoria (𝑥" ) a la que se le aplica el tratamiento A, tiene una distribución


normal.
𝐻" : la variable aleatoria (𝑥" ) a la que se le aplica tratamiento A, no tiene una distribución
normal.
𝐻! : la variable aleatoria (𝑥# ) a la que se le aplica el tratamiento B, tiene una distribución
normal.
𝐻" : la variable aleatoria (𝑥# ) a la que se le aplica tratamiento B, no tiene una distribución
normal.
𝐻! : la variable aleatoria (𝑥$ ) a la que se le aplica el tratamiento C, tiene una distribución
normal.
𝐻" : la variable aleatoria (𝑥$ ) a la que se le aplica tratamiento C, no tiene una distribución
normal.

b. Se calcula el estadístico de Shapiro-Wilk a cada una de las variables de tabla 2

A continuación se detalla el desarrollo de los cálculos realizados por columnas de las tablas
5y6

columna1: Se enumeraron todos los valores de la variable estudiada (i=1, 2,3…, n)

140
Innovaciones Tecnológicas en las Ciencias Computacionales

columna2: Se ordenan los valores de las variables en forma ascendente 𝑥)


columna3: Se ordenan los valores de las variables en forma descendente 𝑥*+),-
columna4: Se obtiene la diferencia 𝑥*+),- -𝑥)
columna5: Se obtienen los valores de 𝑎) para n=15 de la tabla de Shapiro Wilks (Tabla
3).
columna6: Se calcula el producto
𝑎) [𝑥*+),- − 𝑥) ]
columna7: Se calcula el término (𝑥) − 𝑥̅ ). .
Para obtener el estadístico 𝑊%&'%('&)* se divide el cuadrado del total de la columna 5

- +
+
𝑏 = EF 𝑎, [𝑥-.,/" − 𝑥, ]J
,0"
entre el total de la columna 6
-

F (𝑥, − 𝑥̅ )+
,0"
Y para obtener la 𝑊'#(%$#&# se utilizará la tabla 4.
Posteriormente se utilizó el Gráfico Q-Q que es un método gráfico para el diagnóstico
de diferencias entre las muestras. La Q viene de la palabra cuantil, en dónde se podrá
observar de manera gráfica, si los datos tienen una distribución normal, gráficas 1y 2.

4 Resultados

Se aplicó el proceso de Shapiro-Wilk, a cada una de las variables del experimento:


Para la variable 𝑥-

Tabla 5. Aplicación de la prueba de Shapiro-Wilk a la variable 𝑥1 de la tabla de datos 2

x1 x1 Xn-i+1 Xn-i+1-Xi ai ai*(Xn-i-1-Xi) (Xi-media)^2


25 0 25 25 0.515 12.875 31.36
24.5 0.4 24.5 24.1 0.3306 7.96746 27.04
21.8 1.9 21.8 19.9 0.2495 4.96505 13.69
15.7 4.9 15.7 10.8 0.1878 2.02824 0.49
14.5 5.6 14.5 8.9 0.1353 1.20417 0
12.3 6.7 12.3 5.6 0.088 0.4928 1.21
11 8 11 3 0.0433 0.1299 5.76
9.7 9.7 9.7 0 0 0 16.81
8 11 8 -3 0 0 29.16
6.7 12.3 6.7 -5.6 0 0 44.89
5.6 14.5 5.6 -8.9 0 0 79.21
4.9 15.7 4.9 -10.8 0 0 102.01
1.9 21.8 1.9 -19.9 0 0 262.44
0.4 24.5 0.4 -24.1 0 0 357.21
0 25 0 -25 0 0 376.36
suma 0 suma 29.66262 1347.64
𝑊!"#!$#"%& =0.93400601.
El 𝑊%&'%('&)* se obtiene utilizando la fórmula 1, misma que se aplicará para cada una
de las variables restantes.

Gráfica 1. Cuantil-Cuantil de la variable 𝑥- .

141
Innovaciones Tecnológicas en las Ciencias Computacionales

Para la variable 𝑥1
Tabla 6. Aplicación de la prueba de Shapiro-Wilk a la variable 𝑥0 de la tabla de datos 2.

x4 x4 Xn-i+1 Xn-i+1-Xi ai ai*(Xn-i-1-Xi) (Xi-media)^2


26.3 0 26.3 26.3 0.515 13.5445 31.36
24.1 0 24.1 24.1 0.3306 7.96746 31.36
19.7 0 19.7 19.7 0.2495 4.91515 31.36
15.3 0 15.3 15.3 0.1878 2.87334 31.36
13.7 0.6 13.7 13.1 0.1353 1.77243 25
11.4 2.7 11.4 8.7 0.088 0.7656 8.41
8.7 4.1 8.7 4.6 0.0433 0.19918 2.25
6.8 6.8 6.8 0 0 0 1.44
4.1 8.7 4.1 -4.6 0 0 9.61
2.7 11.4 2.7 -8.7 0 0 33.64
0.6 13.7 0.6 -13.1 0 0 65.61
0 15.3 0 -15.3 0 0 94.09
0 19.7 0 -19.7 0 0 198.81
0 24.1 0 -24.1 0 0 342.25
0 26.3 0 -26.3 0 0 428.49
suma 0 suma 32.03766 1335.04
W234254367 = 0.83660314

Gráfica 2. Cuantil-Cuantil de la variable 𝑥0 .

142
Innovaciones Tecnológicas en las Ciencias Computacionales

Se utilizó la hoja de cálculo de Excel, para obtener todos los resultados mostrados en
las tablas anteriores, posteriormente se crea un resumen de los resultados de la prueba de
Shapiro-wilk, se puede notar que las variables 𝑥0 , 𝑥1 , 𝑥2 y 𝑥-- no tienen una
ditribución normal, esto se podría corroborar, con las regiones de rechazo de la 𝐻! en
dónde se debe de cumplir que 𝑤" < 𝑤3 para ∝=0.05 (Tabla7).

Tabla 7. Resultados de la prueba de Shapiro-Wilk.


𝑊# 𝑊$ ∝=0.05 (se 𝑊# <𝑊$
Shapiro- obtienen utilizando
Wilk la tabla 4)
𝑥% 0.93400601 0.881 Como 𝑊# > 𝑊$ se acepta la 𝐻& que tiene
una distribución normal
𝑥' 0.92261508 0.881 Como 𝑊# >𝑊$ se acepta la 𝐻& que tiene
una distribución normal
𝑥( 0.91325936 0.881 Como 𝑊# >𝑊$ se acepta la 𝐻& que tiene
una distribución normal
𝑥) 0.83660314 0.881 Como 𝑊# <𝑊$ se rechaza la 𝐻& y se
concluye que no tiene distribución normal
𝑥* 0.90378781 0.881 Como 𝑊# >𝑊$ se acepta la 𝐻& que tiene
una distribución normal
𝑥+ 0.83975588 0.881 Como 𝑊# <𝑊$ se rechaza la 𝐻& y se
concluye que no tiene distribución normal
𝑥, 0.92280465 0.881 Como 𝑊# >𝑊$ se acepta la 𝐻& que tiene
una distribución normal
𝑥- 0.79269019 0.881 Como 𝑊# <𝑊$ se rechaza la 𝐻& y se
concluye que no tiene distribución normal
𝑥. 0.94100969 0.881 Como 𝑊# >𝑊$ se acepta la 𝐻& que tiene
una distribución normal
𝑥%& 0.95377346 0.881 Como 𝑊# >𝑊$ se acepta la 𝐻& que tiene
una distribución normal
𝑥%% 0.82542566 0.881 Como 𝑊# <𝑊$ se rechaza la 𝐻& y se
concluye que no tiene distribución normal
𝑥%' 0.91072219 0.881 Como 𝑊# >𝑊$ se acepta la 𝐻& que tiene
una distribución normal

Se puede decir que no todas las muestras tienen un comportamiento con una
distribución normal, sin embargo al graficar dichas variables (por ejemplo las gráficas 1y
2), se pudo corroborar, sin duda alguna que todas las variables tienen un comportamiento
normal, también podemos resaltar que al ser un experimento biológico, los datos no se
pueden transformar, es decir son datos reales.

143
Innovaciones Tecnológicas en las Ciencias Computacionales

5 Conclusión

Cuando se realiza un experimento, en dónde se trata de demostrar la eficacia de un


tratamiento con respecto a otro, es importante saber si los datos proporcionados por el
experimento, tiene una distribución normal, porque muchas pruebas estadísticas
funcionan adecuadamente, cuando se cumple la normalidad de los datos, y también
permite determinar si se puede aplicar una prueba paramétrica o no paramétrica, según
sea el caso, por eso en ésta investigación, el primer paso fue determinar si los datos
presentan una distribución normal, dado que los datos que se utilizaron en este
experimento fue de 15 días de observación, se utilizó la prueba de Shapiro-Wilk, porque
si hubieran sido mayores de 50, se tendría que haber utilizado la prueba de Kolmogorov-
Smirnov. Se pudo demostrar que de las 12 muestras de tamaño 15, cumplieron la
normalidad de los datos y sólo 4 no, pero al graficar dichas muestras con Q-Q-Plot
(Cuantíl-cuantíl) se pudo constatar que gráficamente se podían considerar con una
distribución normal. Para futuros trabajos se aplicará la prueba de Hotelling-𝑇 + para
probar estadísticamente, si hay diferencias significativas, en la aplicación de los 3
tratamientos mencionados y el estimador de máxima verosimilitud que tienen como
condición principal que sus datos tengan una distribución normal, también para
corroborar si existen diferencias entre los tratamientos.

Referencias

1. Dolly Marcela Zapata, Alejandro Estrada, Calidad de vida relacionada con la salud de las
personas afectadas por quemaduras después de la cicatrización, Medellín, Colombia,
Biomédica 30, 492-500, 2010.
2. A. Kurzer Schall, F. Olarte Serna, H. Aristizabal Giraldo, M. Botero Betancourt, J. Restrepo
Cuarta; Cirugía, cirugía plástica, Editorial Universidad de Antioquia/Yuluka-Medicina, 1997.
3. Arnaldo Bendlin, Hugo A. Linares, Fortunato Benaim. Tratado de quemaduras. México
Interamericana, McGraw-Hill, 1993.
4. Alvarado Cuadrac, José Luis Pineros B., Ricardo Roa G., Rev. Med. Clin. CONDES 21 (1),
41-45, 2010.
5. Fuentes Sorrivas, M. Archivos de cirugía general y digestiva, Arch. Cir. Gen. Dig., 1998 May
2 © Cirugest. ISSN: 1576-2025.
6. Hernández Martínez-Esparza, Manual Práctico de Cicatrización en heridas crónicas.
Editorial: Hernández Martínez-Esparza, 2009.
7. Yamada H, Tajima S, Nishikawa T, Murad S, Pinnell SR: Tranilast, a selective inhibitor of
collagen sintesis in human keloid fibroblasts. J Biochem (Tokyo) 116, 892-7, 1994
8. Hono JP, Hasson A: Uso de bleomicina en inyección intralesional en el tratamiento de los
queloides. Trabajo de Investigación. Santiago, Pontificia Universidad Católica de Chile,
Facultad de Medicina, Hospital Clínico, Unidad de Dermatología, 1-30, 2000
9. Salem C. Vidal A, Mariangel P, Concha M, Cicatrices Hipertróficas y queloides, Cuad. Cir.,
16, 77-86, 2002.
10. Gerbault O: Encyclopédie Médico-Chirurgicale, Cirugía plástica, reparadora y estética. Paris,
Ediciones Elsevier, 14, 2000.
11. Andrades Patricio, Sepulveda Sergio, González E. U. Josefina, Curación avanzada de
heridas, Rev. Chilena de Cirugía, 56 4, 396-403, 2004.
12. Sara Lucía Camargo-Ricalde, “Descripción, distribución, anatomía, composición química y
usos de Mimosa tenuiflora (Fabaceae-Mimosoideae) en México”, Rev. biol. Trop., 48 4,
2000.
13. Barajas-Morales, J & A. Pérez, Manual de identificación de árboles de selva baja mediante
cortezas. Cuadernos No. 6. Inst. Biología, UNAM, 83, 1990, México.
14. Founai J., “Actividad Bacteriológica, Fisiológica y su uso en Cosmetología del
Tepezcohuite”. Facultad de Farmacia. Universidad del sur de París, 1, 1990.
15. Facultad de Farmacia. “Reporte de la evaluación de la actividad bacteriostática del
tepezcohuite”. Universidad de París 1, 1991.
16. Laboratorio Industrial de Biología, “Análisis General del Tepezcohuite”, París, Francia. 1991.

144
Innovaciones Tecnológicas en las Ciencias Computacionales

17. Safepharm Laboratories Ltda., “Exámen de Toxicidad del Tepezcohuite”. Londres,


Inglaterra, 1, 1991.
18. Instituto Mexicano del Seguro Social, “Reporte sobre el Efecto Antimicrobiano de los
Extractos de la Corteza del Tepezcohuite”, 1, 1991, México.
19. Macédo-Costa M. R., Vieira Pereira do S., Filgueiras Pereira L., Vieira Pereira A., Guedes
Rodriques O., “Atividade Antimicrobiana e Antiaderente do Extrato da Mimosa tenuifl ora
(Willd). Poir. Sobre Microrganismos do Biofi lme Dentário”, Pesq. Bras. Odontoped Clin.
Integr. João Pessoa, 9 2, 161-165, 2009.
20. De la Cruz Colorado, A. J. Mijangos Velázquez, “Árbol de piel en la práctica médica”.
Primera Edición, 1, UNAM, 1993, México.
21. Lawrence S. Meyers, Glenn Gamst, A.J. Guarino, “Applied Multivariate Research”, first
Edition. Edit. Sage Publication, Inc. 2006 ,Shapiro Wilk 68,86,100,264,390,420.

145
Innovaciones Tecnológicas en las Ciencias Computacionales

Innovaciones Tecnológicas
en las Ciencias Computacionales
se terminó de editar en Diciembre de 2019
en la Facultad de Ciencias de la Computación
Av. San Claudio y 14 Sur
Jardines de San Manuel
Ciudad Universitaria
C.P. 72570

146
Innovaciones Tecnológicas en las Ciencias Computacionales

Innovaciones Tecnológicas
en las Ciencias Computacionales
Coordinado por María del Carmen Santiago Díaz

147
Innovaciones Tecnológicas en las Ciencias Computacionales

148

Common questions

Con tecnología de IA

The BUAP's methodology ensures systematic integration of environmental thinking by using a comprehensive approach that involves Knowledge Discovery in Databases (KDD), Text Mining, and clustering. This allows for the identification, quantification, and categorization of environmental thinking attributes present in educational offerings. By structuring the evaluation based on the dimensions of sustainability (environmental, social, economic), BUAP aligns its programs with international and national environmental directives, ensuring consistent integration across all educational levels .

Clustering techniques offer the advantage of grouping similar program attributes into meaningful categories, facilitating their analysis and comparison. This method allows educators and administrators to identify patterns and relationships within the data, which can reveal insights into the strengths and weaknesses of program attributes and how they align with desired educational goals, such as sustainability or innovation .

Text Mining is a crucial tool used to assess the integration of environmental thinking in BUAP's postgraduate programs. It is part of a proposed methodology that identifies and evaluates whether key attributes of university environmental thinking are present in the educational information for postgraduate admissions. By categorizing and analyzing this information with multivariate statistical techniques, Text Mining helps in quantitatively assessing the incorporation of environmental principles into the educational programs .

The key theoretical elements supporting the methodology used by BUAP include Knowledge Discovery in Databases (KDD), Text Mining, Fuzzy Logic, and multivariate statistics. These elements allow for a systematic evaluation of the presence of environmental thinking attributes in curricular offerings, help quantify and categorize these attributes, and address the inherent complexity and uncertainty in data evaluation .

The BUAP incorporates the philosophy of environmental thinking into its postgraduate offerings by evaluating whether the attributes of university environmental thinking are present in their educational offerings. The methodology involves a multidisciplinary approach using the Knowledge Discovery in Databases (KDD) process and Text Mining tools. These tools quantify and group these attributes based on the sustainability dimensions of Environmental Sciences, ensuring that the principles of environmental thinking are planned into postgraduate educational curricula .

Fuzzy Logic enhances the methodology for evaluating environmental thinking by effectively handling uncertainty and imprecision inherent in educational data analysis. It allows for a more nuanced interpretation of data and supports the grouping of attributes into sustainability dimensions based on vague or incomplete information. Fuzzy Logic thus contributes to a more accurate and flexible assessment of whether environmental thinking is integrated into educational offerings .

Environmental thinking at BUAP is an interdisciplinary concept that combines complex, systemic, and transdisciplinary perspectives. It integrates the theories of complex thinking by Edgar Morin, systemic theories from Fritjof Capra and Ludwig von Bertalanffy, and transdisciplinary perspectives from Manfred Max-Neef. This comprehensive approach emphasizes the interconnectedness of social and material spheres, promoting harmony with the environment and considering complexity and chaos in societal contexts .

An iterative process is essential in a User-Centered Design (UCD) approach because it allows continuous refinement and validation of the design with user feedback at each stage. This ensures that the final product meets user needs and preferences, remains useful and usable, and adapts to changing requirements or unexpected issues observed during testing. Iterations help in addressing usability problems early in the design cycle, reducing costs and improving user satisfaction .

The balance between professional and research-oriented program offerings within BUAP's postgraduate structure is significant as it caters to diverse career aspirations and learning objectives of students. This balance allows for the development of practical skills and theoretical knowledge, supporting students in pursuing either professional careers or further academic research. This diversified approach enhances the overall educational quality and adaptability to evolving industry needs .

Transdisciplinarity influences environmental science education at BUAP by promoting the integration of diverse fields to address complex environmental problems holistically. This approach encourages the breaking down of traditional disciplinary boundaries, fostering collaboration across various scientific domains and encouraging a unified understanding of environmental issues through the lenses of socio-economic, ecological, and technological perspectives .

También podría gustarte