SlideShare una empresa de Scribd logo
SEE PROFILE
See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/361592450
Diseño de un sistema de monitoreo para senderos seguros en áreas naturales
protegidas y su relación ante la pandemia COVID 19
Chapter · December 2021
CITATIONS
0
READS
857
5 authors, including:
Carlos Jesahel Vega Gómez
University of Guadalajara CU Tlajomulco
30 PUBLICATIONS 5 CITATIONS
Alberto Coronado
University of Guadalajara
26 PUBLICATIONS 133 CITATIONS
Mónica Camas
University of Guadalajara
5 PUBLICATIONS 10 CITATIONS
Some of the authors of this publication are also working on these related projects:
Micro grids View project
Diseño de un sistema de monitore para senderos seguros en áreas naturales protegidas y su relación ante la pandemia COVID 19 View project
All content following this page was uploaded by Carlos Jesahel Vega Gómez on 28 June 2022.
The user has requested enhancement of the downloaded file.
SEE PROFILE
SEE PROFILE
1
Transformación Digital:
Avances y paradigmas
tecnológicos
2
EDITORES:
 M. en C. Ma. de Lourdes Sánchez Guerrero.
 Dra. Alma Rosa García Gaona.
 Dr. Francisco Javier Álvarez Rodríguez.
EDITORIAL:
ALFA-OMEGA GRUPO EDITOR S.A DE C.V.
ISBN:
978-607-538-797-0
LUGAR:
MEXICO, CIUDAD DE MÉXICO.
FECHA DE PUBLICACIÓN:
DICIEMBRE DE 2021
3
Índice
Prólogo 5
Introducción 6
Comité Revisor 7
I. Analítica 10
Aplicación web para análisis de comentarios sobre la calidad de servicios turísticos de Cancún 11
Aplicación web para análisis de comentarios sobrela calidad de servicios turísticos de Cancún 19
Algoritmos Machine Learning (ML): Predicción de casos SARS-CoV-2 en Bolivia 27
II. Competencias en TIC 42
Estudio de riesgos cibernéticos y los medios de seguridad que utiliza el control parental en los adolescentes
del sexto semestre de preparatoria del Colegio Diego Rivera de Tuxtla Gutiérrez, Chiapas. 43
Diseño de instrumento para evaluar el pensamiento computacional en alumnos de ingeniería que cursan la
asignatura de Programación 51
III. Cómputo en la Nube 59
Monitoreo de la actividad física o reposo de pacientes mediante el uso de sensores y servicios en la nube _ 60
IV. Cómputo Móvil 68
Asistente GC: Asistente Colaborativo Móvil para la Gestión de Congresos o Ponencias 69
V. Educación en TI 75
Caso de estudio de la preferencia de modelo educativo y uso de TIC para evaluar la implementación de un
modelo de aula invertida 76
La estrategia de la formación continua en apoyo a las competencias de la profesión 85
Análisis cuantitativo del uso de recursos tecnológicos en la Plataforma Moodle 92
Tecnología móvil para la educación de la salud en tiempos de pandemia en estudiantes de Media Superior 98
El reto de enseñar tecnologías de alto desempeño en modalidad virtual derivado de la contingencia sanitaria.
Caso de estudio: Licenciatura en Ingeniería en Ciencias Computacionales del Centro Universitario de Tonalá,
Universidad de Guadalajara 104
Uso de Realidad Aumentada como estrategia en el Aprendizaje de Historia de México en Secundaria 110
Tendencias, impacto de COVID-19 y pronósticos de crecimiento de la realidad mixta en la educación. 124
VI. E-educación 131
Propuesta de APP como herramienta de enseñanza para niños con el trastorno del espectro autista 132
Aplicación Web de apoyo a la enseñanza del Álgebra utilizando el Modelo de Áreas basada en el paradigma de
componentes de software 139
Laboratorio basado en Web Multimedia de apoyo a la enseñanza de Fracciones fundado en componentes de
software 149
Objeto de aprendizaje para la enseñanza de las estructuras de repetición utilizando dispositivos móviles y
realidad aumentada 158
VII. E-Learning 165
Modelo Instruccional Basado en Inteligencias Múltiples 166
B-learning de Derechos Humanos 177
VIII. Ingeniería de Software 183
Generador de un modelo 3D a partir de fotografías utilizando como caso de prueba una tienda virtual 184
4
Tarjetas de Presentación Digitales a través de Herramientas de Desarrollo Multiplataforma 191
Proceso de desarrollo de software en empresas mexicanas 199
IX. Innovación en TIC 207
Plataforma digital para Facilitar el Acceso a la Información sobre Estrategias para Reutilizar Productos
Comerciales 208
X. Inteligencia Artificial 214
Análisis de Ciberataques en una Ciudad Inteligente utilizando Dispositivos IoT e Industria 4.0 215
Ciencia de datos y predicción para el análisis del futuro climático 221
Sistema de clasificación multiclase para lesiones dermatológicas ideal para Queratosis Actínica 226
XI. Investigación en TIC 234
Limitations experimented by undergraduates in Stem careers, during the production of scientific reports. Case
study in Panamanian public universities 235
XII. Mejores prácticas y estándares 242
Estudio comparativo sobre el rendimiento de los lenguajes de programación Java y Python en diferentes SBC
243
Proyecto tiempo-acción: modelo de desarrollo de software, PETAL 249
XIII. TIC y responsabilidad social 255
Diseño de un sistema de monitoreo para senderos seguros en áreas naturales protegidas y su relación ante la
pandemia COVID 19. 256
El uso de Blockchain como generador de innovacion en la transparencia y eficiencia en instituciones. 265
XIV. Vehículos Autónomos 271
Modelo basado en visión por computadora para detecciónde carriles viales para la autonomía de vehículos272
Diseño de órtesis paramétrica para corredores de pista en silla de ruedas 280
Semblanza de los Editores 293
AGRADECIMIENTOS 294
5
Prólogo
Desde 1982 a la fecha, la Asociación Nacional de Instituciones de Educación en Tecnologías de la
Información, A. C., (ANIEI), congrega a más de 100 instituciones que ofrecen programas educativos
relacionados al área de la Computación e Informática del país. Dentro de sus objetivos tiene el de
“Orientar, proponer y difundir las actividades que en materia de docencia, investigación y extensión
educativa se realizan en el área de informática”, así como el de “analizar los problemas relacionados
con la enseñanza de la informática, proponer soluciones y colaborar en su implantación”, para lo cual
cuenta con dos eventos muy importantes que se han vuelto tradición para coadyuvar al cumplimiento
de sus objetivos: 1) Congreso Nacional e Internacional de Informática y Computación de la ANIEI
(CNCIIC) y 2) Reunión Nacional de Directivos de Informática y Computación, que cada año se
organizan teniendo como sede alguna de las instituciones asociadas, el primero se lleva a cabo en
Octubre y el segundo en Junio.
El libro “Transformación Digital: Avances en los paradigmas tecnológicos”, organizado en catorce
capítulos, presenta productos tecnológicos que resuelven problemas reales del transporte público,
basados en sistemas de información geográfica, por ejemplo, utilizando principios de usabilidad, o
herramientas de realidad virtual hasta realidad aumentada esta última para apoyo a personas débiles
visuales y videojuegos aplicados a la educación. Así mismo, el libro aborda temáticas de corte de
investigación aplicada que tienen que ver con el diseño semiautomático de estructuras óptimas o
utilización de técnicas de inteligencia artificial para resolver problemas de ruteo hasta una propuesta
de arquitectura avanzada para arquitectura web educativa usando la web semántica.
Los autores y participantes en los capítulos de esta obra resultado de trabajos de investigación
desarrollados por académicos, que provienen de diversas universidades y centros de educación
superior reconocidos del país y de instituciones extranjeras, y de asociaciones de la industria del
software, tales como la Universidad Autónoma de Aguascalientes, Universidad de Guadalajara,
Universidad Autónoma Metropolitana, Benemérita Universidad Autónoma de Puebla, Facultad
Ciencias Técnicas y Empresariales Universidad de Sancti Spíritus José Martí Pérez, Instituto
Tecnológico Superior de los Ríos, Tecnológico Nacional de México-Instituto Tecnológico de
Estudios Superiores de Zamora, Universidad Autónoma de Baja California Sur, Universidad
Autónoma de Baja California-Facultad de Ciencias Marinas, Universidad Autónoma de Querétaro,
Universidad de Colima, Universidad de Guadalajara-CUCEI, Universidad Tecnológica del Suroeste
de Guanajuato, Universidad Veracruzana, entre otras.
Cabe señalar que esta obra representa un esfuerzo que la ANIEI hace para publicar a través de la
editorial ALFA OMEGA, lo que los directivos asociados a la ANIEI han analizado y propuesto para
mejorar y actualizar el quehacer de sus programas educativos, siempre tendiendo a la calidad de los
mismos.
6
Introducción
Este libro tiene como objetivo presentar los principales avances del desarrollo tecnológico e
investigación para las áreas de tecnologías de la información y comunicación en México. Este trabajo
es el resultado de investigadores, alumnos y grupos a lo largo del país que tiene como principal
característica trabajos colaborativos que incluyen a los alumnos de los diferentes programas
educativos relacionados con la temática.
Los capítulos se organizaron en catorce capítulos que agrupan distintos temas de interés actual,
relacionados con alternativas tecnológicas de enseñanza, analítica, competencias en TIC, cómputo en
la nube, cómputo Móvil, educación en TI, e-educación, e-Learning, ingeniería de software,
innovación en TIC, Inteligencia Artificial, investigación en TIC, mejores prácticas y estándares, TIC
y responsabilidad social y vehículos autónomos.
El resultado de las mesas de trabajo es también una pauta para generar el plan de trabajo anual de la
ANIEI y el rumbo de esta, siempre acorde a sus objetivos para beneficio de los programas educativos
en TIC, de las instituciones educativas asociadas.
Esta obra es el de la ANIEI para publicar el trabajo de las mejores prácticas y tendencias del quehacer
de los programas educativos en TIC en México, tomando en consideración las tendencias regionales,
nacionales e internacionales.
7
Comité Revisor
Institución Nombre Completo
Benemérita Universidad Autónoma de Puebla
Edna Iliana Tamariz Flores
Carlos Zamora Lima
María del Carmen Santiago Díaz
Carlos Armando Ríos Acevedo
María Teresa Torrijos Muñoz
Lilia Mantilla Narváez
Nelva Betzabel Espinoza Hernández
Gustavo Trinidad Rubín Linares
María del Consuelo Molina García
Ana Claudia Zenteno Vázquez
Luis Carlos Altamirano Robles
Guillermina Sánchez Román
Yalu Galicia Hernández
Instituto Tecnológico Superior de
Coatzacoalcos
Patricia Guadalupe Gamboa Gutiérrez
Universidad Autónoma de Aguascalientes Francisco Javier Álvarez Rodríguez
Universidad Autónoma de Baja California
Evelio Martínez Martínez
Omar Álvarez Xochihua
Alma Rocio Cabazos Marin
Universidad Autónoma de Nayarit
Dr. Víctor Javier Torres Covarrubias
Mtro. Gabriel Zepeda Martínez
Mtro. Raudel López Espinoza
Mtra. Mónica Salcedo Rosales
Mtro. Alejandro Granados Magaсa
Ing. Carlos David Ortiz Hernández
Universidad Autónoma de Yucatán
Dr. Raúl Antonio Aguilar Vera
Dr. Juan Pablo Ucan Pech
MTI. Julio Cesar Díaz Mendoza
MSC. Gabriela Solís Magaña
Universidad de Colima
Armando Román Gallardo
Manuel Pastor Villaseñor Hernández
Pedro Damián Reyes
8
María Andrade Arechiga
Félix Ortigosa Martínez
Osval Antonio Montesinos López
Jorge Rafael Gutiérrez Pulido
Erika Margarita Ramos Michel
Carlos Alberto Flores Cortes
Omar Álvarez Cárdenas
Raymundo Buenrostro Mariscal
Ricardo Acosta Díaz
José Román Herrera Morales
Juan Manuel Ramírez Alcaraz
Juan José Contreras Castillo
Sara Sandoval Carrillo
Universidad de Guadalajara
Jorge Lozoya Arandia
Edna Minerva Barba Moreno
José Guadalupe Morales Montelongo
José Antonio Orizaga Trejo
María Elena Romero Gastelu
Universidad de Ixtlahuaca
MATI. Karina Balderas Pérez
Ing. Jesús Namigtle Jiménez
M. en C. Jorge Edmundo Mastache Mastache
Ing. César León Ramírez Chávez
Universidad del Caribe David Israel Flores Granados
Universidad Nacional Autónoma de México-
FES Acatlán
Christian Carlos Delgado Elizondo
Georgina Eslava García
Mauricio Rico Castro
Mayra Olguín Rosas
Adalberto López López
Adriana Dávila Santos
Nora Goris Mayasn
Luz María Lavin Alanis
Maricarmen González Videgaray
Rubén Romero Ruiz
9
José Gustavo Fuentes Cabrera
Francisco Javier López Rodríguez
Miguel Ángel Guadarrama García
Eduardo Eloy Loza Pacheco
Universidad Veracruzana
Patricia Martínez Moreno
José Antonio Vergara Camacho
Javier Pino Herrera
10
I. Analítica
11
Aplicación web para análisis de comentarios sobre la calidad de
servicios turísticos de Cancún
Web application for analysis of comments on the quality oftourist services in Cancun
Nancy Aguas García (naguas@ucaribe.edu.mx); Esteban Ramón Hernández Valencia
(150300092@ucaribe.edu.mx), MartínJavier Ayala Miranda (150300081@ucaribe.edu.mx) y
Sebastián Jiménez Puya (150300091@ucaribe.edu.mx)
Departamento de ciencias básicas e ingenierías, Universidad del Caribe,Esquina
Fraccionamiento, Tabachines, 77528 Cancún, Q.R. México.
Resumen. Cancún es una ciudad con un crecimiento turístico promedio del 2% anual, por consiguiente,
esto ha llevado a la creación de planes de estudio relacionados al turismo y gastronomía, específicamente
en la Universidad del Caribe, los que a su vez integran asignaturas y proyectos para la evaluación de la
calidad y mejora de los servicios turísticos. Debido al formato en que se realizan, se invierte al menos 2
horas para realizar el levantamiento de información y 2 horas para la integración gráfica. Este proyecto
aborda el desarrollode una plataforma que, utilizando las metodologías SCRUM y CRISP-DM así como
técnicas de web scraping y de análisis y procesamiento de grandes volúmenes de datos, obtiene las reseñas
online de hoteles y/o restaurantes y permite generar reportes sobre la calidad de los servicios de los mismos;
La aplicación reduce y optimiza el tiempo de generación de reportes.
Palabras clave: extracción, reseñas, calidad, servicio, análisis, sentimientos.
1. Introducción
Año con año la ciudad de Cancún, México recibe una cantidad impresionante de turistas, los cuales dejan
mucha información sobre su experiencia en este destino, como lo son comentarios y/o reseñas sobre el
servicio brindado en hoteles, restaurantes, parques, transporte, etc. Por consiguiente, se pretende que,
mediante un correcto tratamiento de información y análisis estadístico de los grandes volúmenes de datos
quelos turistas “dejan” en las plataformas virtuales, se pueden detectar patronesque permitan generar
conclusiones y decisiones acerca de cómo se está gestionando el sector turístico en la ciudad. Y en base a
estos, formular estrategias que puedan ser implantadas en los programas educativos de la Universidad del
Caribe relacionados al turismo, de manera que el estudiantesea consciente de la situación actual y sea capaz
de identificar áreas de oportunidad para solventar dichos problemas detectados de primera fuente.
Contribuyendo así a mejorar la calidad del destino.
12
2. Estado del arte
Diversos autores han estudiado técnicas y herramientas para la gestión y análisis de grandes volúmenes de
datos, tal es el caso de Moine J., Haedo A., & Gordillo S. que en el año 2011 realizaron un estudio
denominado “Análisis comparativo de metodologías para la gestión de proyectos de minería de datos” en
donde el congreso argentino de ciencia de la COMPI realizó dicho análisis comparando las siguientes
metodologías: KDD, CRISP-DM, SEMMA y Catalyst, derivado de dicho artículo se puede concluirque la
metodología que mejor se acopla a nuestro proyecto es el CRISP-DMya que en el comienzo se tiene que
realizar un análisis del negocio y del problema organizacional así como que contemplan el análisis y
comprensióndel problema antes de comenzar el proceso de minería.
Otro estudio realizado en el mismo año pero esta vez en la Universidad de Columbia, New York
denominado “Análisis de sentimientos en datos de Twitter” por los autores Agarwal A, Xie B., Vovsha L.
, Rambow O., & Passonneau R. Se enfocó en construir modelos para dos tareas de clasificación específica:
clasificar comentarios en positivos o negativos, y clasificar comentarios en positivos, negativos o neutros
todos ellos de la plataforma Twitter. Para ello, se usaron tres modelos específicos por separado, y después,
una combinación de estos para incrementar el desempeño. Estos fueron: un modelo unigramático, un
modelo basado en características y un modelo basado en un árbol de kernels.
En el 2018, en Indonesia, el autor Hermanto DT, realizó un estudio llamado Twitter Social Media Sentiment
Analysis in Tourist Destinations Using Algorithms Naive Bayes Classifier donde se usó el clasificador de
Naive Bayes, para analizar comentarios de Twitter sobre los destinos turísticos en este país, y habla de
cómo fueron pre-procesados los comentarios para estar listos a ser ingresados al clasificador de Bayes. Y
su hallazgo fue que este clasificador les fue de ayuda para determinar que la opinión pública sobre los
destinos turísticos era mayormente positiva, y se concluye que este clasificador es muy bueno para este tipo
de propósitos.
3. Metodologías empleadas
La investigación emplea un conjunto de metodologías y herramientas informáticas para la minería y análisis
de la información, que permitirán realizar la búsqueda, extracción, preprocesado, análisis y postprocesado
de los datos, así como metodologías para la gestión de proyectos de software yde minería de datos las cuales
se describen seguidamente:
3.1 SCRUM
Es un marco dentro del cual las personas pueden abordar problemas complejos de adaptación, mientras
entregan de forma productiva y creativa productos del mayor valor posible.
Se usó la metodología para poder hacer entregas de valor de la aplicación web al departamento de turismo
y así poder tener mejor feedback del mismo.
Asimismo esta metodología se centra en dividir el proyecto en subtareas más pequeñas para poder hacerlas
en equipos pequeños.
13
3.2 CRISP-DM
Para la parte de minería de datos del proyecto se llevará la metodología de CRISP-DM, esta metodología
se eligió ya que describe las tareas de cada fase del proceso e incorpora actividades para la gestión del
proyecto; así también, como una fase de inicio tiene la compresión del negocio que ayudaa determinar hacia
dónde se quiere dirigir la información que se obtenga de la minería.
3.3 Servicio RestFul de análisis de datos
Con la finalidad de separar el análisis de la información obtenida en el web scraping y que a la vez fuera
funcional e independiente para ser consultado desde cualquier cliente, se desarrolló una API REST que
mediante peticiones HTTP devolviera el recurso requerido en cuestión para posteriormente ser desplegado
por el cliente en forma de tablas, gráficas, etc. Debido a la necesidad de utilizar un lenguaje especializado
en tareas deData Science como el análisis de los datos, análisis de sentimientos, etc. Como lo es Python, se
decidió usar Flask RESTful, la cual es una extensión del micro framework de python Flask que permite
crear aplicaciones restful minimalistas y escalables. Algunas de las ventajas que nos brinda este framework
son la capacidad de decidir nuestra propia arquitectura ya que al ser extremadamente minimalista no tiene
una arquitectura o scaffolding predefinido para el desarrollo por lo que ofrece la libertad de construir todo
prácticamente desde cero, controlando todo lo que sea necesario. Y esto siempre cuidando que la API
cumpla con los requerimientos y reglas que REST dictamina.
3.3.1 Criterios para el diseño de la API
Hay ciertos criterios que se tienen que tomar en cuenta a la hora de crear API’s rest, uno de estos dictamina
que todo recurso en la base de datos debe tener un identificador denominado URI (Uniform Resource
Identifier) la cual se puede ver desde el aspecto HTTP como una URL que apunta hacia un recurso de
nuestra base de datos. Existen ciertas reglas y buenas prácticas para la asignación de nombres de dichas
URI, sin embargo, no se entrará en detalle en este aspecto, pero lo que es importante destacar es que estas
están pensadas para sistemas de información con bases de datosrelacionales, ahora bien, lo interesante y el
reto de esto ha sido el poder adaptar el funcionamiento de una API para trabajar como una API restful de
Data Science la cual pueda realizar un análisis específico de la información dependiendo la URI con la que
se consulte. Así pues, para la asignación de recursos se hizo un análisis previo con el fin de responder a la
pregunta: en una API de Data Science ¿Qué es un recurso? Un recurso en una API convencional podría ser
un registro en la base de dados por ejemplo, pero en este caso en particular eso no nos aporta ningún valor,
debido a esto, se llegó a la conclusión de que un recurso representaría el resultado de hacer alguna tarea de
análisis de datos o manipulación de la información, así puestoda información que el cliente necesitase
conocer representaría un recurso y por ende podría acceder a él mediante la petición correspondiente.
Tomemos el ejemplo de que el cliente quiere conocer de cuáles hoteles se dispone información dentro de
la base de datos y cuántos comentarios se tienen por hotel, ordenando estos de mayor a menor en base al
número de comentarios. La respuesta es una URI que permita mediante un correcto nombramiento acceder
a esta información como la de a continuación:
localhost:5000/hotels/popularity
14
donde “hotels” representa el recurso “hoteles” y “popularity” el número de reseñas, asumiendo que mientras
más reseñas tenga un hotel significa que este es más popular al haber recibido más visitas.
Tomemos otro ejemplo esta vez con una serie de tiempo, en donde el cliente necesita conocer cuantos
comentarios positivos, negativos y neutros tuvo cada hotel por año. Para ello, la URI debe representar un
recurso que presente la información necesaria para graficar dicha serie de tiempo resultante del análisis de
los datos. A lo cual se tiene las siguiente:
localhost:5000/hotels/popularity/distribution/yearTimeSeries
donde “distribution” representa el número de comentarios positivos, neutrosy negativos que se tienen por
hotel y “yearTimeSeries” significa esta misma distribución, pero esta vez a lo largo de los años.
Es importante destacar que, según las reglas Rest, una url no debe pertenecer a una acción en concreto sino
a un recurso. En este caso pareciera que al pedir hacia algunos de los endpoints mencionados anteriormente
se estuviera pidiendo una acción, sin embargo, aquí es dondejuega un papel importante las convenciones
de nomenclatura de API’s ya que hay una diferencia sutil entre pedir a la API que realice un resumen por
del número de comentarios por hotel a indicarle que me devuelva la popularidad de dichos hoteles, la
diferencia es muy sutil pero de esta forma se ha conseguido permanecer dentro del estándar rest de
representación derecursos. De esta forma la API funciona bajo el concepto de una caja negra a la cual le
pedimos algo, y nos devuelve un resultado sin necesidad de conocer su implementación y procesos por
detrás.
Para el deploy de la API se utilizó una máquina virtual de Debian ejecutada desde la plataforma como
servicio de computación en la nube Heroku, así pues, el dominio asignado al servicio rest fue el siguiente:
https://reviewscaribe.herokuapp.com/
De esta forma la composición de la url se forma con el nombre del dominio de nuestro servicio más la uri
hacia nuestro recurso específico, por ejemplo:
https://reviewscaribe.herokuapp.com/hotels/popularity/distribution
Nombre del dominio del servidor URI
3.3.2 Arquitectura Hexagonal
Debido a las características del microframework Flask, para el diseño de la arquitectura de la API, pensando
en la flexibilidad y escalabilidad se decidió utilizar una adaptación basada en la arquitectura denominada
“Arquitectura hexagonal”, la cual contempla la división del software en tres grandes áreas o capas con su
propia responsabilidad: aplicación, dominio e infraestructura.Donde cada una de estas se encarga de
gestionar una parte específica de la aplicación como a continuación se describe:
Aplicación: Esta área se encarga de gestionar y coordinar todos los elementos de la aplicación. No contiene
lógica de negocio ni mantiene el estado de los objetos de negocio. Es responsable de mantener el estado de
15
Data Base[
Collection (Nombre de la plataforma web)
{
_id: 'Identificador único del comentario', review_body:
'Comentario del usuario', review_date: 'Fecha que se
realizó el comentario',
hotel_name: 'Nombre del hotel al que corresponde el comentario',rating:
'Calificación que se le dio al comentario en caso de tenerlo'
}
la aplicación y del flujo de esta. En la capa de aplicación se gestionaron los casos de uso donde estos se
encargaban de conectar los servicios de dominio e infraestructura encargados de realizar el análisis de los
datos y reportar informes de estos respectivamente.
Dominio: La capa de dominio es la encargada de gestionar toda la lógica de negocio de la aplicación, es la
encargada de definir los contratos o puertos, representados en la programación orientada a objetos por
interfaces, que serán usados en la capa de infraestructura mediante adaptadores que implementarán la
interfaz se acuerdo al tipo de tarea que realizarán. Permitiendo así conectar la lógica de negocio con el
resto de la aplicaciónsin necesidad que una capa dependa de otra. A su vez, en esta capa se definieron los
servicios de dominio encargados de realizar el filtrado de la información dependiendo la lógica de negocio
que envolviese a ese caso de uso concreto.
Infraestructura: Esta capa gestiona la comunicación de la aplicación con el exterior, es la encargada de
persistir la información en la base de datos, de realizar envíos de notificaciones, emails, etc. Todo proceso
que requiera comunicación desde la aplicación hacia el exterior sale a partir de la capa deinfraestructura.
Debido a la naturaleza de la API, al no hacer persistencia en base de datos, esta capa se reservó únicamente
para la generación de reportes en formatos xlsx, los cuales son una forma de persistencia y envío de datos
con el exterior, lo cual es responsabilidad de la capa de infraestructura.
Al hacer esta separación por responsabilidades, se consigue que estas evolucionen de manera aislada,
además de facilitar la reutilización.
4. Resultados experimentales
4.1 Base de datos
En el diseño de la base de datos se empezó usando la metodología de CRISP-DM en las fases de
comprensión del modelo de negocio y comprensión de los datos; para esto, se inició con una búsqueda de
diferentes páginas donde se pudieran poner y obtener comentarios de hoteles en Cancún; algunas
aplicaciones que se están usando son TripAdvisor, Twitter y Google maps. Con base en esta información,
seseleccionaron los elementos de los comentarios que serían útiles de acuerdo a los requerimientos del
beneficiario, para esto se procedió a hacer un contraste entre las plataformas para ver qué elementos
compartían las páginas y en cuáles difieren, para así poder seleccionar los de mayor relevancia.
16
def scrape(url, lang='en'):
# Crea session para tener todas las cookies entre requests
session = requests.Session()
session.headers.update({
'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64;rv:57.0)
Gecko/20100101 Firefox/57.0',
})
# Obtiene todos los comentarios de los comentarios de un hotel o
restaurante de TripAdvisor
# a través de la url de la página.
items = parse(session, url + '?filterLang=' + lang)
return items
4.2 Web Scraping
Como segundo paso , preparación de datos, se creó un Web Scraping que obtenga los datos de las páginas
web y los almacenará en la base de datos usando el esquema que se diseñó.
El web scraping se dividió en diferentes scripts para cada página web, ya que todas tienen diferente formato
para obtener los elementos deseados.
El primer script que se trabajó fue el de TripAdvisor, se realizó una búsqueda de algoritmos que nos
ayudará obtener la información deseada demanera más rápida, así mismo se encontró un algoritmo que se
acopla a lo que necesitábamos, este se usó de referencia para el desarrollo de nuestro script.
Fig. 6. Script encargado de hacer el Scraping de la página Tripadvisor. Fuente:
autoría propia, Lenguaje: Python 3
4.3 API Rest
Dentro de los resultados obtenidos tenemos por parte de la API una serie deendpoints que entregan un
recurso derivado del análisis específico, a continuación, se listan dichos Endpoints junto con el recurso
obtenido en cuestión:
● Listado de hoteles disponibles
● Hoteles por popularidad
● Distribución de comentarios
● Serie de tiempo por año
● Serie de tiempo por mes
● Conteo del total de reviews
● Frecuencia de palabras
● Reglas de asociación (Apriori)
17
● Descarga de reviews en formato Excel
4.4 Front End
Respecto a la interfaz de usuario de la aplicación web, se usó la librería de Javascript ReactJS, al ser una
tecnología enfocada en componentes, y eso permite agilizar el desarrollo, al poder tener componentes
aislados, y después modularmente unirlo como piezas de cualquier rompecabezas,sin descuidar la forma en
cómo interactúan entre ellos. Cabe mencionar que también se ocuparon librerías para series de tiempo,
poder mostrar el grafo donde se encuentran las reglas de asociación, y la nube de palabras.
5. Conclusiones y lineamientos para futurasinvestigaciones.
5.1 Lineamientos para futuras investigaciones
18 18
Existen ciertas características y funcionalidades que se han pospuesto para trabajo futuro y que actualmente
no se contemplan las cuales son:
Agregar opción de no tomar en cuenta las fechas al aplicar los filtros.
Permitir que las series de tiempo se puedan visualizar por meses y no sólo por años.Si bien las series de
tiempo anuales son bastante buenas en periodos largos, sin embargo, para mostrar periodos más cortos de
tiempo no alcanzan a tener un desempeño muy bueno, en este aspecto se deberá agregar una serie por mes
que muestre los datos en periodos más cortos.
Agregar componente para añadir un hotel. Se busca que el cliente pueda agregar los hoteles que él desee
para enriquecer la información de la aplicación, en este aspecto se deberá añadir un componente para
agregar un hotel específico.
5.2 Conclusiones
De acuerdo con los resultados del proyecto, y conforme a los tiempos actuales de análisis que el beneficiario
invierte en la búsqueda y graficación de comentarios, se concluye que la aplicación reduce y optimiza el
tiempode trabajo del beneficiario. La comparación de tiempos entre la aplicación y el proceso manual es clara
y contundente, resultando ser una herramienta más efectiva; en la actualidad, este tipo de sistemas de
retribución de información se están haciendo cada vez más populares y comunes, otorgando mejores
resultados que los que una persona con la misma labor haría, lo que sin duda muestra una tendencia muy
importante en la cual en un futuro no muy lejano las funciones de estas personas se verán sustituidas por
algoritmos de análisis e inteligencia artificial desarrollados en este tipo de sistemas de retribución de
información.
6. Referencias
 Beck, M. (Enero 01, 2012). How to Scrape Tweets From Twitter. Agosto 27, 2020, de
medium.com
 Gasparini, M. (Agosto 28, 2020). Google Maps Scraper. Noviembre 1,2020
 Hermanto, D., 2018. Twitter Social Media Sentiment Analysis In Tourist Destinations Using
Algorithms Naive Bayes Classifier. 1st ed. [ebook] Indonesia: IOP Publishing, p.7.
 J. Moine, A. Haedo, & S. Gordillo. (01-01-2011). Análisis comparativo de metodologías para la
gestión de proyectos de minería de datos. XVII CONGRESO ARGENTINO DE CIENCIAS DE
LA COMPUTACIÓN, 931 -938. 19-08-2020,
 Li, S. (2018). Web Scraping Trip Advisor, Text Mining and SentimentAnalysis for Hotel
Reviews. agosto 26, 2020, de medium.com
 Richard, G. (Enero 10, 2006). SCRUM PARA STARTUPS. Agosto 21, 2020
19 18
Aplicación web para análisis de comentarios sobrela calidad de
servicios turísticos de Cancún
Web application for analysis of comments on the quality oftourist services in Cancun
Esteban Ramón Hernández Valencia (150300092@ucaribe.edu.mx), MartínJavier Ayala
Miranda (150300081@ucaribe.edu.mx) y Sebastián Jiménez Puya
(150300091@ucaribe.edu.mx)
Departamento de ciencias básicas e ingenierías, Universidad del Caribe,Esquina
Fraccionamiento, Tabachines, 77528 Cancún, Q.R. México.
Resumen. Cancún es una ciudad con un crecimiento turístico promedio del 2% anual, por consiguiente,
esto ha llevado a la creación de planes de estudio relacionados al turismo y gastronomía, específicamente
en la Universidad del Caribe, los que a su vez integran asignaturas y proyectos para la evaluación de la
calidad y mejora de los servicios turísticos. Debido al formato en que se realizan, se invierte al menos 2
horas para realizar el levantamiento de información y 2 horas para la integración gráfica. Este proyecto
aborda el desarrollode una plataforma que, utilizando las metodologías SCRUM y CRISP-DM así como
técnicas de web scraping y de análisis y procesamiento de grandes volúmenes de datos, obtiene las reseñas
online de hoteles y/o restaurantes y permite generar reportes sobre la calidad de los servicios de los mismos;
La aplicación reduce y optimiza el tiempo de generación de reportes.
Palabras clave: extracción, reseñas, calidad, servicio, análisis, sentimientos.
1. Introducción.
Año con año la ciudad de Cancún, México recibe una cantidad impresionante de turistas, los cuales dejan
mucha información sobre su experiencia en este destino, como lo son comentarios y/o reseñas sobre el
servicio brindado en hoteles, restaurantes, parques, transporte, etc. Por consiguiente, se pretende que,
mediante un correcto tratamiento de información y análisis estadístico de los grandes volúmenes de datos
quelos turistas “dejan” en las plataformas virtuales, se pueden detectar patronesque permitan generar
conclusiones y decisiones acerca de cómo se está gestionando el sector turístico en la ciudad. Y en base a
estos, formular estrategias que puedan ser implantadas en los programas educativos de la Universidad del
Caribe relacionados al turismo, de manera que el estudiantesea consciente de la situación actual y sea capaz
de identificar áreas de oportunidad para solventar dichos problemas detectados de primera fuente.
Contribuyendo así a mejorar la calidad del destino.
20 18
2. Estado del arte
Diversos autores han estudiado técnicas y herramientas para la gestión y análisis de grandes volúmenes de
datos, tal es el caso de Moine J., Haedo A., & Gordillo S. que en el año 2011 realizaron un estudio
denominado “Análisis comparativo de metodologías para la gestión de proyectos de minería de datos” en
donde el congreso argentino de ciencia de la COMPI realizó dicho análisis comparando las siguientes
metodologías: KDD, CRISP-DM, SEMMA y Catalyst, derivado de dicho artículo se puede concluirque la
metodología que mejor se acopla a nuestro proyecto es el CRISP-DMya que en el comienzo se tiene que
realizar un análisis del negocio y del problema organizacional así como que contemplan el análisis y
comprensióndel problema antes de comenzar el proceso de minería.
Otro estudio realizado en el mismo año pero esta vez en la Universidad de Columbia, New York
denominado “Análisis de sentimientos en datos de Twitter” por los autores Agarwal A, Xie B., Vovsha L.
, Rambow O., & Passonneau R. Se enfocó en construir modelos para dos tareas de clasificación específica:
clasificar comentarios en positivos o negativos, y clasificar comentarios en positivos, negativos o neutros
todos ellos de la plataforma Twitter. Para ello, se usaron tres modelos específicos por separado, y después,
una combinación de estos para incrementar el desempeño. Estos fueron: un modelo unigramático, un
modelo basado en características y un modelo basado en un árbol de kernels.
En el 2018, en Indonesia, el autor Hermanto DT, realizó un estudio llamado Twitter Social Media Sentiment
Analysis in Tourist Destinations Using Algorithms Naive Bayes Classifier donde se usó el clasificador de
Naive Bayes, para analizar comentarios de Twitter sobre los destinos turísticos en este país, y habla de
cómo fueron pre-procesados los comentarios para estar listos a ser ingresados al clasificador de Bayes. Y
su hallazgo fue que este clasificador les fue de ayuda para determinar que la opinión pública sobre los
destinos turísticos era mayormente positiva, y se concluye que este clasificador es muy bueno para este tipo
de propósitos.
3. Metodologías empleadas
La investigación emplea un conjunto de metodologías y herramientas informáticas para la minería y análisis
de la información, que permitirán realizar la búsqueda, extracción, preprocesado, análisis y postprocesado
de los datos, así como metodologías para la gestión de proyectos de software yde minería de datos las cuales
se describen seguidamente:
3.1 SCRUM
Es un marco dentro del cual las personas pueden abordar problemas complejos de adaptación, mientras
entregan de forma productiva y creativa productos del mayor valor posible.
Se usó la metodología para poder hacer entregas de valor de la aplicación web al departamento de turismo
y así poder tener mejor feedback del mismo.
Asimismo esta metodología se centra en dividir el proyecto en subtareas más pequeñas para poder hacerlas
en equipos pequeños.
21 18
3.2 CRISP-DM
Para la parte de minería de datos del proyecto se llevará la metodología de CRISP-DM, esta metodología
se eligió ya que describe las tareas de cada fase del proceso e incorpora actividades para la gestión del
proyecto; así también, como una fase de inicio tiene la compresión del negocio que ayudaa determinar hacia
dónde se quiere dirigir la información que se obtenga de la minería.
3.3 Servicio RestFul de análisis de datos
Con la finalidad de separar el análisis de la información obtenida en el web scraping y que a la vez fuera
funcional e independiente para ser consultado desde cualquier cliente, se desarrolló una API REST que
mediante peticiones HTTP devolviera el recurso requerido en cuestión para posteriormente ser desplegado
por el cliente en forma de tablas, gráficas, etc. Debido a la necesidad de utilizar un lenguaje especializado
en tareas deData Science como el análisis de los datos, análisis de sentimientos, etc. Como lo es Python, se
decidió usar Flask RESTful, la cual es una extensión del micro framework de python Flask que permite
crear aplicaciones restful minimalistas y escalables. Algunas de las ventajas que nos brinda este framework
son la capacidad de decidir nuestra propia arquitectura ya que al ser extremadamente minimalista no tiene
una arquitectura o scaffolding predefinido para el desarrollo por lo que ofrece la libertad de construir todo
prácticamente desde cero, controlando todo lo que sea necesario. Y esto siempre cuidando que la API
cumpla con los requerimientos y reglas que REST dictamina.
3.3.1 Criterios para el diseño de la API
Hay ciertos criterios que se tienen que tomar en cuenta a la hora de crear API’s rest, uno de estos dictamina
que todo recurso en la base de datos debe tener un identificador denominado URI (Uniform Resource
Identifier) la cual se puede ver desde el aspecto HTTP como una URL que apunta hacia un recurso de
nuestra base de datos. Existen ciertas reglas y buenas prácticas para la asignación de nombres de dichas
URI, sin embargo, no se entrará en detalle en este aspecto, pero lo que es importante destacar es que estas
están pensadas para sistemas de información con bases de datosrelacionales, ahora bien, lo interesante y el
reto de esto ha sido el poder adaptar el funcionamiento de una API para trabajar como una API restful de
Data Science la cual pueda realizar un análisis específico de la información dependiendo la URI con la que
se consulte. Así pues, para la asignación de recursos se hizo un análisis previo con el fin de responder a la
pregunta: en una API de Data Science ¿Qué es un recurso? Un recurso en una API convencional podría ser
un registro en la base de dados por ejemplo, pero en este caso en particular eso no nos aporta ningún valor,
debido a esto, se llegó a la conclusión de que un recurso representaría el resultado de hacer alguna tarea de
análisis de datos o manipulación de la información, así puestoda información que el cliente necesitase
conocer representaría un recurso y por ende podría acceder a él mediante la petición correspondiente.
Tomemos el ejemplo de que el cliente quiere conocer de cuáles hoteles se dispone información dentro de
la base de datos y cuántos comentarios se tienen por hotel, ordenando estos de mayor a menor en base al
número de comentarios. La respuesta es una URI que permita mediante un correcto nombramiento acceder
a esta información como la de a continuación:
localhost:5000/hotels/popularity
22 18
donde “hotels” representa el recurso “hoteles” y “popularity” el número de reseñas, asumiendo que mientras
más reseñas tenga un hotel significa que este es más popular al haber recibido más visitas.
Tomemos otro ejemplo esta vez con una serie de tiempo, en donde el cliente necesita conocer cuantos
comentarios positivos, negativos y neutros tuvo cada hotel por año. Para ello, la URI debe representar un
recurso que presente la información necesaria para graficar dicha serie de tiempo resultante del análisis de
los datos. A lo cual se tiene las siguiente:
localhost:5000/hotels/popularity/distribution/yearTimeSeries
donde “distribution” representa el número de comentarios positivos, neutrosy negativos que se tienen por
hotel y “yearTimeSeries” significa esta misma distribución pero esta vez a lo largo de los años.
Es importante destacar que, según las reglas Rest, una url no debe pertenecer a una acción en concreto sino
a un recurso. En este caso pareciera que al pedir hacia algunos de los endpoints mencionados anteriormente
se estuviera pidiendo una acción, sin embargo, aquí es dondejuega un papel importante las convenciones
de nomenclatura de API’s ya que hay una diferencia sutil entre pedir a la API que realice un resumen por
del número de comentarios por hotel a indicarle que me devuelva la popularidad de dichos hoteles, la
diferencia es muy sutil pero de esta forma se ha conseguido permanecer dentro del estándar rest de
representación derecursos. De esta forma la API funciona bajo el concepto de una caja negra a la cual le
pedimos algo, y nos devuelve un resultado sin necesidad de conocer su implementación y procesos por
detrás.
Para el deploy de la API se utilizó una máquina virtual de Debian ejecutada desde la plataforma como
servicio de computación en la nube Heroku, así pues el dominio asignado al servicio rest fue el siguiente:
https://reviewscaribe.herokuapp.com/
De esta forma la composición de la url se forma con el nombre del dominio de nuestro servicio más la uri
hacia nuestro recurso específico, por ejemplo:
https://reviewscaribe.herokuapp.com/hotels/popularity/distribution
Nombre del dominio del servidor URI
3.3.2 Arquitectura Hexagonal
Debido a las características del microframework Flask, para el diseño de la arquitectura de la API, pensando
en la flexibilidad y escalabilidad se decidió utilizar una adaptación basada en la arquitectura denominada
“Arquitectura hexagonal”, la cual contempla la división del software en tres grandes áreas o capas con su
propia responsabilidad: aplicación, dominio e infraestructura.Donde cada una de estas se encarga de
gestionar una parte específica de la aplicación como a continuación se describe:
Aplicación: Esta área se encarga de gestionar y coordinar todos los elementos de la aplicación. No contiene
lógica de negocio ni mantiene el estado de los objetos de negocio. Es responsable de mantener el estado de
23 18
Data Base[
Collection (Nombre de la plataforma web)
{
_id: 'Identificador único del comentario', review_body:
'Comentario del usuario', review_date: 'Fecha que se realizó
el comentario',
hotel_name: 'Nombre del hotel al que corresponde el comentario',rating:
'Calificación que se le dio al comentario en caso de tenerlo'
}
la aplicación y del flujo de esta. En la capa de aplicación se gestionaron los casos de uso donde estos se
encargaban de conectar los servicios de dominio e infraestructura encargados de realizar el análisis de los
datos y reportar informes de estos respectivamente.
Dominio: La capa de dominio es la encargada de gestionar toda la lógica de negocio de la aplicación, es la
encargada de definir los contratos o puertos, representados en la programación orientada a objetos por
interfaces, que serán usados en la capa de infraestructura mediante adaptadores que implementarán la
interfaz se acuerdo al tipo de tarea que realizarán. Permitiendo así conectar la lógica de negocio con el
resto de la aplicaciónsin necesidad que una capa dependa de otra. A su vez, en esta capa se definieron los
servicios de dominio encargados de realizar el filtrado de la información dependiendo la lógica de negocio
que envolviese a ese caso de uso concreto.
Infraestructura: Esta capa gestiona la comunicación de la aplicación con el exterior, es la encargada de
persistir la información en la base de datos, de realizar envíos de notificaciones, emails, etc. Todo proceso
que requiera comunicación desde la aplicación hacia el exterior sale a partir de la capa deinfraestructura.
Debido a la naturaleza de la API, al no hacer persistencia en base de datos, esta capa se reservó únicamente
para la generación de reportes en formatos xlsx, los cuales son una forma de persistencia y envío de datos
con el exterior, lo cual es responsabilidad de la capa de infraestructura.
Al hacer esta separación por responsabilidades, se consigue que estas evolucionen de manera aislada,
además de facilitar la reutilización.
4. Resultados experimentales
4.1 Base de datos
En el diseño de la base de datos se empezó usando la metodología de CRISP-DM en las fases de
comprensión del modelo de negocio y comprensión de los datos; para esto, se inició con una búsqueda de
diferentes páginas donde se pudieran poner y obtener comentarios de hoteles en Cancún; algunas
aplicaciones que se están usando son TripAdvisor, Twitter y Google maps. Con base en esta información,
seseleccionaron los elementos de los comentarios que serían útiles de acuerdo a los requerimientos del
beneficiario, para esto se procedió a hacer un contraste entre las plataformas para ver qué elementos
compartían las páginas y en cuáles difieren, para así poder seleccionar los de mayor relevancia.
24 18
def scrape(url, lang='en'):
# Crea session para tener todas las cookies entre requests
session = requests.Session()
session.headers.update({
'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64;rv:57.0)
Gecko/20100101 Firefox/57.0',
})
# Obtiene todos los comentarios de los comentarios de un hotel o
restaurante de TripAdvisor
# a través de la url de la página.
items = parse(session, url + '?filterLang=' + lang)
return items
4.2 Web Scraping
Como segundo paso , preparación de datos, se creó un Web Scraping que obtenga los datos de las páginas
web y los almacenará en la base de datos usando el esquema que se diseñó.
El web scraping se dividió en diferentes scripts para cada página web, ya que todas tienen diferente formato
para obtener los elementos deseados.
El primer script que se trabajó fue el de TripAdvisor, se realizó una búsqueda de algoritmos que nos
ayudará obtener la información deseada demanera más rápida , así mismo se encontró un algoritmo que se
acopla a lo que necesitábamos, este se usó de referencia para el desarrollo de nuestro script.
Fig. 6. Script encargado de hacer el Scraping de la página Tripadvisor. Fuente:autoría propia,
Lenguaje: Python 3
4.3 API Rest
Dentro de los resultados obtenidos tenemos por parte de la API una serie deendpoints que entregan un
recurso derivado del análisis específico, a continuación se listan dichos Endpoints junto con el recurso
obtenido en cuestión:
● Listado de hoteles disponibles
● Hoteles por popularidad
● Distribución de comentarios
● Serie de tiempo por año
● Serie de tiempo por mes
● Conteo del total de reviews
● Frecuencia de palabras
● Reglas de asociación (Apriori)
25 18
● Descarga de reviews en formato Excel
4.4 Front End
Respecto a la interfaz de usuario de la aplicación web, se usó la librería de Javascript ReactJS, al ser una
tecnología enfocada en componentes, y eso permite agilizar el desarrollo, al poder tener componentes
aislados, y después modularmente unirlo como piezas de cualquier rompecabezas,sin descuidar la forma en
cómo interactúan entre ellos. Cabe mencionar que también se ocuparon librerías para series de tiempo,
poder mostrar el grafo donde se encuentran las reglas de asociación, y la nube de palabras.
5. Conclusiones y lineamientos para futuras
investigaciones.
5.1 Lineamientos para futuras investigaciones
26
Existen ciertas características y funcionalidades que se han pospuesto para trabajo futuro y que
actualmente no se contemplan las cuales son:
Agregar opción de no tomar en cuenta las fechas al aplicar los filtros.
Permitir que las series de tiempo se puedan visualizar por meses y no sólo por años.Si bien las series de tiempo
anuales son bastante buenas en periodos largos, sin embargo, para mostrar periodos más cortos de tiempo no
alcanzan a tener un desempeño muy bueno, en este aspecto se deberá agregar una serie por mes que muestre los
datos en periodos más cortos.
Agregar componente para añadir un hotel.Se busca que el cliente pueda agregar los hoteles que él desee para
enriquecer la información de la aplicación, en este aspecto se deberá añadir un componente para agregar un
hotel específico.
5.2 Conclusiones
De acuerdo con los resultados del proyecto, y conforme a los tiempos actuales de análisis que el beneficiario
invierte en la búsqueda y graficación de comentarios, se concluye que la aplicación reduce y optimiza el
tiempode trabajo del beneficiario. La comparación de tiempos entre la aplicación y el proceso manual es clara
y contundente, resultando ser una herramienta más efectiva; en la actualidad, este tipo de sistemas de retribución
de información se están haciendo cada vez más populares y comunes, otorgando mejores resultados que los que
una persona con la misma labor haría, lo que sin duda muestra una tendencia muy importante en la cual en un
futuro no muy lejano las funciones de estas personas se verán sustituidas por algoritmos de análisis e
inteligencia artificial desarrollados en este tipo de sistemas de retribución de información.
6. Referencias
 Beck, M. (Enero 01, 2012). How to Scrape Tweets From Twitter. Agosto 27, 2020, de medium.com
 Gasparini, M. (Agosto 28, 2020). Google Maps Scraper. Noviembre 1,2020
 Hermanto, D., 2018. Twitter Social Media Sentiment Analysis In Tourist Destinations Using
Algorithms Naive Bayes Classifier. 1st ed. [ebook] Indonesia: IOP Publishing, p.7.
 J. Moine, A. Haedo, & S. Gordillo. (01-01-2011). Análisis comparativo de metodologías para la
gestión de proyectos de minería de datos. XVII CONGRESO ARGENTINO DE CIENCIAS DE LA
COMPUTACIÓN, 931 -938. 19-08-2020,
 Li, S. (2018). Web Scraping Trip Advisor, Text Mining and SentimentAnalysis for Hotel Reviews.
agosto 26, 2020, de medium.com
 Richard, G. (Enero 10, 2006). SCRUM PARA STARTUPS. Agosto 21, 2020
27
Algoritmos Machine Learning (ML): Predicción de casos SARS-CoV-2 en
Bolivia
Juan Ruiz Otondo1Julio, 2021.
Resumen
El sistema económico - sanitario global atraviesa una incertidumbre, resiliencia por efecto de lapandemia,
ante esa adversidad es determinante estimar los comportamientos de escenarios decasos Covid-19, para
una toma de decisión estratégica en política sanitaria. El objetivo de este artículo es examinar las
implicaciones de algoritmos Machine Learning (ML) en precisión predictiva de casos SARS-CoV-2. La
metodología se sustenta en la estadística y analítica predictiva de algoritmos ML, construido mediante la
técnica de análisis computacional Python.El resultado determina un test global de 94% en precisión de
predicción, los algoritmos ARIMAy RANDOM FOREST tienen un test débil en predecir, por ende no se
cumpliría sus pronósticos,por otra parte el algoritmo PROPHET tiende ser predictor intermedio de los
demás, dentro deesa perspectiva los algoritmos ML que tienen mejor test de precisión predictiva a la
realidad de los datos de casos diarios de Covid-19 para Bolivia son; GLMNET Y PROPHET
W/XGBOOT ERRORS, por la razón anterior se podría concluir que los modelos predictivos GLMNET
y PROPHET W/XGBOOT ERRORS son mejores algoritmos para predecir escenarios de casos SARS-
CoV-2 a corto plazo.
Clasificación JEL: C55, I1, J6, 033
Palabras Claves: Machine Learning, Covid-19, Predicción
1 Economista (USFX), Mg. Rel. Económicas Internacionales por Universidad de Buenos Aires (UBA),
Data Scientist por Digital House Argentina, Posgrado en Estadística por Universidad Nacional de
Córdoba (UNC), investigador
- expositor habitual en conferencias nacional e internacional, Analista de Datos en Datastudy
Consulting, Prof. Universitario Extraordinario - USFX y Miembro Académico de Asociación Argentina
de Economía Política (AEEP).
El resultado de investigación es responsabilidad exclusiva del autor y Datastudy Consulting, no
compromete la opinión de la institución publicadora. Cualquier duda, sugerencia a
otondojr@outlook.com.
28
I. Introducción
El mundo vive un momento de mucha incertidumbre por la dramática situación de la pandemia, a inicios
de la pandemia desde la analítica predictiva se indicaba que los decesos por SARS-CoV-2 alcanzaría a
6 millones (Oxford, 2020), de acuerdo a ultimas estimaciones y predicciones matemáticas – estadísticos
indican que los decesos alcanzarán a 10 millones de personas (The Economist, 2021), entonces todo da
entender que esta pandemia está aquí para durar y se volverá cada vez más resistente por la
multiplicación de variantes en el resto del mundo, ante esta realidad de actual pandemia de COVID-19
es fundamental generar estudiosacadémicos que permitan prever escenarios a corto plazo para una
adecuada planificación y toma de decisión estratégica en la política de salud pública, esto para una
asignación eficiente de la atención sanitaria y el seguimiento de los efectos socioeconómicos.
Este documento tratará de responder de ¿Cuáles son los algoritmos que mejor predicen los
comportamientos de casos SARS-CoV-2 en Bolivia? Y que escenarios se espera en los próximos90 días.
El objetivo de este artículo es examinar las implicaciones de algoritmos Machine Learning (ML) en
precisión de predicción de casos Corona Virus Disease – 2019 (Covid-19). Elpresente documento de
investigación tiene una estructura de articulo científico en desarrollo, inicialmente se presente el
resumen de articulo, seguido de una pequeña introducción, una revisión de estado de la cuestión o
revisión literaria sobre el objeto de estudio, continuando conel desglose metodológico matemático –
estadístico, el tratamiento de datos e instrumentos utilizados, finalmente se establece el análisis de
resultados, discusión y su correspondiente conclusión de estudio realizado.
II. Revisión literaria
En la literatura se puede encontrar diferentes enfoques para modelar y pronosticar epidemias de
enfermedades infecciosas se pueden caracterizar como: i) modelos mecanicistas basados enestados
susceptibles, expuestos, infectados y recuperados (SEIR) (Bjornstad, Shea, Krzywinski, & Altman,,
2020) que es una extensión de modelo de estados susceptibles S (t), infectadas I (t)y recuperadas R (t)
(SIR), este último fue abordado de manera simple en el Boletín N° 1, 2020 de la Carrera de Economía,
ii) modelos de predicción de series de tiempo como ARIMA (Sahai,Rath, Sood, & Singh, 2020), modelo
de Gray (Zhao, Shou, & Wang, 2020) y modelos de cadenade Markov (Marfak, Achak, Azizi, Nejjari,
& Aboudi, 2020); y iii) modelos de tipo de agente (Cuevas, 2020) es implica una simulación de
actividades individuales para una población. Dentro de modelos de serie de tiempo (ii), en campo de
Big Data, Data Science, surgieron algoritmos de Machine Learning (Shahriare, Koushik, Mufti, & al.,
2021), las misma son bastante robustos a la hora de predecir comportamiento de actividades de toda
índole desde negocios, economía, ingeniería, salud, etc. no podría ser el caso de escenarios, simulaciones
dedecesos, casos nuevos de SARS-CoV-2. Y que se ¿entiende por algoritmo? ¿Machine Learning?.Desde
la ciencia de datos se considera que algoritmo es una secuencia lógica y finita de pasos que permite
solucionar un problema o cumplir con un objetivo (Bruce, Andrew, & Gedeck, 2020), es crucial para
avances tecnológicos como la Inteligencia Artificial (IA), en Big Data
29
ayuda en la búsqueda de patrones y relaciones entre variables entre cantidad de datos, algunos
programadores afirman que dicha secuencia es más importante que el lenguaje de programación y la
computadora. Por otra parte, el Machine Learning o aprendizaje automáticoes un subcomponente o
subdivisión de la Inteligencia Artificial, que a través de algoritmos dotaa los ordenadores de la capacidad
de identificar patrones en datos masivos para hacer predicciones (Lantz, 2019), mientras otra definición
entiende que es una disciplina científica delámbito de la Inteligencia Artificial que crea sistemas que
aprenden automáticamente. Aprenderen este contexto quiere decir identificar patrones complejos en
millones de datos. La máquina que realmente aprende es un algoritmo que revisa los datos y es capaz
de predecir comportamientos futuros (Nils, 2005). Dentro de la literatura es bastante estudiado y
conceptualizado la enfermedad conocida como Corona Virus Disease 2019 (COVID-19) está causada
por el coronavirus 2 del síndrome de distrés respiratorio del adulto (SDRA) o Severe Acute Respiratory
Syndrome Coronavirus 2 (SARS-CoV-2) (Cervera, Espinoza, Ramos, Hernandez, & al., 2020), y de
acuerdo a la revista científica Nature, ante un sondeo a inmunólogos, virólogos y expertos en salud de
todo el mundo, se les consulto si se podía erradicar el SARS-CoV-2, los expertos en la materia
mencionaron en 90% dijeron de manera contundente “NO”.
Hecho una contextualización de objeto de estudio es necesario indagar respecto a los estudios e
investigaciones que hayan realizado en ámbito académico sobre el eje temático del presente artículo, en
el último año surgió una línea de investigación respecto a algoritmos ML aplicados a la analítica
predictiva de Covid-19, en un reciente artículo sobre diagnóstico, mortalidad y predicción de riesgo por
Covid-19, se concluyó la necesidad de usar métodos de aprendizaje automático para predecir
comportamiento de casos y decesos por Covid-19, las técnicas usadastendría alta precisión predictiva
(Alballa & Al-Turaiki, 2021), otro estudio utilizando algoritmos de ML, PROPHET, POLY-MLP para
un pais surasiático, pronosticó con precisión la cantidad de casos infectados al día mediante el
entrenamiento de los datos de muestra de 25días anteriores registrados (Shahriare, Koushik, Mufti, &
al., 2021), los autores recomiendan usar este método ML para prevención e identificación de infección
Covid-19 de maneraanticipada, en la misma línea de investigación con el uso de algoritmos ARIMA,
RANDON FOREST, BOOSTING con datos geográficos, de viaje, de salud, demográficos para predecir
lagravedad del caso y el posible resultado, recuperación o muerte en casos Covid – 19, la mismapredijo
con un test de precisión de 94% (Iwendi, Peshkar, Sujatha, & al., 2020), por su parte enotro artículo
relacionado tuvo el propósito de detectar el papel de las aplicaciones y algoritmos de aprendizaje
automático de REGRESION LOGISTICA, ANN, W/XGBOOT ERRORS en la investigación y diversos
propósitos que se ocupan del COVID-19, y se concluyó que el aprendizaje automático puede estar
involucrado en los programas y planes de los proveedoresde salud para evaluar y clasificar los casos de
SARS-CoV-2. (Alhayani & Kwekha, 2021), el testde precisión para el conjunto de algoritmos fue de
92%. Otro estudio para varios países se determinó con algoritmos de aprendizaje automático y un test
de precisión de 91%, en
30
predicción de casos nuevos y patrones de contagio, propagación de la enfermedad. (Almad, Nassean, &
al., 2021)
III. Metodología
Este artículo se sustenta metodológicamente en la expresión matemática – estadística de la analítica
predictiva, inicialmente se expone el método de pronóstico más utilizado, llamado modelo ARIMA, este
algoritmo se utiliza para datos de series de tiempo para predecir comportamiento, tendencia a futuro
(Painuli, Mishra, & Bhardwaj, 2021), en síntesis, el modelose puede expresar para el espacio geográfico
de Bolivia, de la siguiente manera;
𝐴𝑅𝐼𝑀𝐴(< 𝑑𝑎𝑡𝑎𝑠𝑒𝑡_𝐵𝑜𝑙𝑖𝑣𝑖𝑎 > ⌊targetvalue_casos⌋, 𝑜𝑟𝑑𝑒𝑟 = (𝑝, 𝑑, 𝑞)) (1)
Utilizando el conjunto de datos hasta 30 de julio de 2021, se pronosticó para los próximos 90 días. Otros
de los algoritmos clásicos de Machine Learning es RANDON FOREST o bosque aleatorio que es un
modelo de regresión y clasificación basado en un conjunto de datos (Aljameel, Aslam, & at., 2021),
utiliza el método de muestreo de datos de arranque para dividirlos datos en conjuntos de entrenamiento y
prueba, en este estudio, se usa la ganancia de información y la entropía, como se muestra en las siguientes
ecuaciones de manera sintética:
𝑛
𝐸(𝑌) = ∑ −𝑝𝑖𝑙𝑜𝑔2𝑝𝑖, … 𝐸(𝑋, 𝑌) = ∑ 𝑝(𝑛)𝐸(𝑛)
𝑖=1 𝑛∈𝑋
(2)
En la ecuación 2, E(Y) representa la entropía del objetivo, mientras que es la entropía de los atributos
con el objetivo, en el que 𝑋 = {𝑋1, 𝑋2, … 𝑋𝑛} es el conjunto de atributos del conjunto dedatos. El atributo
con la mayor ganancia de información será el atributo raíz, como sigue:
𝑑𝑎𝑡𝑜𝑠𝑔𝑎𝑛𝑎𝑛𝑐𝑖𝑎 = 𝐸(𝑌) − 𝐸(𝑋, 𝑌) (3)
Combina las predicciones hechas por múltiples árboles usando vectores seleccionados al azar
representados por 𝜃𝑇 , donde los vectores seleccionados son independientes de los vectores previamente
seleccionados. El error de generalización del árbol de decisión se representa de lasiguiente manera:
𝐺𝐸 = 𝑃𝑥,𝑦 … (𝑚𝑎𝑟𝑔𝑒𝑓𝑢𝑐(𝑋, 𝑌) < 0) (4)
Donde 𝑃𝑥,𝑦 es la probabilidad de que el conjunto de atributos se asigne a la etiqueta de clase Y.
Otro algoritmo Machine Learning es PROPHET, que es un procedimiento para pronosticar datos de
series de tiempo basado en un modelo aditivo donde las tendencias no lineales se ajustan a la
estacionalidad anual, semanal y diaria, más los efectos de las vacaciones, (Shahriare,
31
Koushik, Mufti, & al., 2021), funciona mejor con series de tiempo que tienen fuertes efectos estacionales
y varias temporadas de datos históricos, este algoritmo es robusto ante los datos faltantes y los cambios
en la tendencia, y normalmente maneja bien los valores atípicos, el procedimiento utiliza un modelo de
series de tiempo descomponible con tres componentes principales del modelo: tendencia, estacionalidad
y asueto, que esta expresado de la siguientemanera:
𝑦(𝑡) = 𝑔(𝑡) + 𝑠(𝑡) + ℎ(𝑡) + 𝑒(𝑡) (5)
Donde la ecuación 5, esta representado por g(t) que es la tendencia del modelo en cambios no periódicos,
es decir el crecimiento en el tiempo, s(t) es la estacionalidad que presente cambios periódicos, entre
tanto el h(t) es el vinculo de efectos, finalmente e(t) cubre los cambios idiosincrásicos que no se adaptan
al modelo. PROPHET está enmarcando el problema de pronóstico como un ejercicio de ajuste de curvas
(Shahriare, Koushik, Mufti, & al., 2021) en lugar de mirar explícitamente la dependencia temporal de
cada observación.
Por su parte el algoritmo GLMNET es un paquete que se adapta a modelos lineales generalizados y
similares a través de la máxima verosimilitud penalizada (Hastie, Qian, & Tay, 2021), la ruta de
regularización se calcula para el lazo o la penalización neta elástica en una cuadrícula de valores (en la
escala logarítmica) para el parámetro de regularización lambda, este algoritmo es extremadamente
rápido y puede aprovechar la escasez en la matriz de entrada, este algoritmo se puede entrenar con
programación en R, Matlab, Python.
𝑁
1
𝑚𝑖𝑛 ∑ 𝑤𝑖𝑙(𝑦𝑖 , 𝛽0 + 𝛽𝑇𝑥1) + 𝝀[(𝟏 − 𝑎)‖𝖰‖𝟐/𝟐 − 𝑎‖𝖰‖𝟏]
𝛽0,𝛽 𝑁 𝟐
𝑖=1
(6)
La ecuación 6, sobre una cuadrícula de valores de λ que cubre toda la gama de posibles soluciones, aquí
l(yi, ηi) es la contribución de probabilidad logarítmica negativa para la observación i. La penalización
de la red elástica está controlada por α y cierra la brecha entre la regresión de lazo, (α = 1, el valor
predeterminado) y regresión de la cresta (α = 0). El parámetro de ajuste λ controla la fuerza general de
la penalización, los algoritmos GLMNET utilizan el descenso cíclico de coordenadas, que optimiza
sucesivamente la función objetivo sobre cada parámetro con otros fijos.
Por una parte, el algoritmo XGBOOST ha sido elegido por analistas computacionales como unode los
mejores predictores, de las tasas de clics de los anuncios hasta la clasificación de eventosde física de alta
energía (Rahual, Balasaheb, & Mahalle, 2021), XGBOOST ha demostrado su valía en términos de
rendimiento y velocidad. La precisión que proporciona constantemente y el tiempo que ahorra
demuestran lo útil que es, la ecuación matemática que explica la predicción como primer paso, el modelo
debe inicializarse con una función F0 (x). F0 (x) deberíaser una función que minimice la función de
pérdida o error cuadrático medio, en este caso;
32
𝑛
𝐹0(𝑥) = 𝑎𝑟𝑔𝑚𝑖𝑛𝑦 ∑ 𝐿(𝑦1, 𝛾)
𝑖=1
(7)
𝑛 𝑛
𝑎𝑟𝑔𝑚𝑖𝑛𝑦 ∑ 𝐿 (𝑦𝑖, 𝛾) = 𝑎𝑟𝑔𝑚𝑖𝑛𝑦 ∑(𝑦𝑖 − 𝛾)2
𝑖=1 𝑖=1
(8)
Tomando el primer diferencial de la ecuación anterior con respecto a γ, se ve que la función, seminimiza
en la media i = 1 n yi n. Entonces, el modelo de impulso podría iniciarse con:
∑ 1 𝑦𝑖
𝐹 (𝑥) = 𝑖=
0
𝑛
(9)
F0(x) da las predicciones de la primera etapa de nuestro modelo. Ahora, el error residual para cada
instancia es (yi - F0 (x)). XGBOOST es una implementación popular de aumento de gradiente.
Para la evaluación del algoritmo es muy importante calcular el test de precisión de la predicción, para
esto existen metodologías, métodos y técnicas que ayudan a evaluar, tal es el caso de test de precisión
(accuracy), para la ecuación se utiliza las siguientes simbologías, verdadero positivo (VP), verdadero
negativo (VN), falso positivo (FP), falso negativo (FN).
𝑉𝑃 + 𝑉𝑁
𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 = 0.0 < 𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 < 1.0
𝑉𝑃 + 𝑉𝑁 + 𝑉𝑃 + 𝑉𝑁
(10)
Para realizar el análisis estadístico y predictivo se recurrió a los datos en espacio y tiempo real,
proporcionado por Johns Hopkins University2 y Our World in Data3 de Oxford University. Para entrenar
los algoritmos Machine Learning se utilizó la técnica de análisis computacional con el lenguaje de
programación multiparadigma Python, que tiene librerías especializadas enaprendizaje automático y
generación análisis predictivos avanzados. Los resultados encontrados se exponen en el siguiente
acápite.
La metodología científica de simulación de escenarios predictivos con los algoritmos se ejecutócomo se
puede visualizar en la siguiente ilustración.
2
https://coronavirus.jhu.edu/map.html
3 https://ourworldindata.org/
33
Predicción a
futuro
Identificación
de mejor
algoritmo
Figura 1 Metodología y procedimiento de predicción SARS-CoV-2.
Elaboración propia.
Como se muestra en la Figura 1, la metodología y procedimiento científico que se siguió para obtener
la simulación y predicción de nuevas infecciones en los próximos 90 días. Inicialmentese recolectó datos
de SARS-CoV-2 en espacio y tiempo real, seguido preprocesamiento de datos, a continuación, se
seleccionó las principales variables de interés, en este caso numero decasos desde inicios de la pandemia
hasta 30 de julio del año en curso, paso seguido se sometióa entrenamiento de datos con los algoritmos
Machine Learning, una vez ejecutado la analítica predictiva, los resultados obtenidos se introdujo a una
evaluación del modelo global mediantela test de precisión predictiva, para confirmar o descartar algunos
algoritmos de menorsignificancia en un intervalo de confianza a 95%, la misma permitió identificar,
seleccionar mejores algoritmos ML, finalmente se simuló la predicción de casos nuevos en los próximos
90días.
IV. Resultados y discusión
El virus SARS-CoV-2 está generando la epidemia global más grande en los últimos cien años, siendo
comparable con la influenza causada por el virus H1N1 en 1918, en el plano económicoestá provocando
una profunda recesión económica con un costo social y humanitario significativo en el corto plazo,
incertidumbre total a mediano y largo plazo. El manejo de datos es crucial en esta crisis
Test de
precisión
Preparación
de datos
Dataset
Covid-19
Algoritmos
Machine
Learning
División de
datos
Evaluación
de modelo
Entrenamiento
de datos
34
fundamentalmente en toma de decisiones sanitarias con el uso de
35
métodos estadísticos avanzados y predicativos. La era del big data promete grandes mejoras que
complementarán a los métodos tradicionales de recolección de información, que podían ser lentos,
costosos y complejos, en ese marco de tendencia actual de la ciencia, se utilizó métodos algorítmicos
mas avanzados para predecir futuros comportamientos de casos Covid-19 en Bolivia, aunque se debe
aclarar que la predicción se viene ejecutando desde enero del añoen curso.
Figura 2 Casos confirmados SARS-CoV-2. Elaboración propia. Dataset. JHU / Our
in Data
En la siguiente Figura 2, se puede evidenciar la evolución de casos SARS-CoV-2 de manera diaria desde
marzo de 2020 hasta 30 de julio de 2021, en la gráfica de serie de tiempo se observala presencia notoria
de tres olas, cada ola es mayor que la anterior, si se analiza a nivel comparativo mensual el
comportamiento es superior a lo que antecede, entonces, ¿la cuarta olaserá superior a estas olas cíclicas?
Una vez realizado una mirada descriptiva de los datos ya pre-procesados, se ejecutó el entrenamiento de
datos mediante algoritmos Machine Learning, paso seguido se evaluó con el test de precisión general,
la misma se expone a continuación.
36
Figura 3 Test de precisión de algoritmos ML. Elaboración propia.
Analizando de manera general el testeo y validez del modelo Machine Learning para SARS- CoV-2
Bolivia, se puede determinar que el modelo a nivel global tiene un test de precisión predictiva en 94 %,
siendo los algoritmos PROPHET, GLMNET Y PROPHET W/XGBOOS ERROS con alto nivel de
precisión en el testeo, mientras que los algoritmos ARIMA y RANDOM FOREST tiene bajo nivel de
significancia en la predicción, para este último es considerable ya que es un algoritmo que tiene algo
valor predictivo en claustering de datos.
Figura 4 Algoritmos predictivos SARS-CoV-2. Elaboración propia.
37
En la Figura 4, se refleja la serie de tiempo de casos SARS-CoV-2 para Bolivia desde inicios de la
pandemia, con simulación de escenarios predictivos hasta finales de octubre del año en curso, en la
misma se puede ver un grado ascendente de distintas fases cíclicas de infecciones,el entrenamiento de
datos con algoritmos de Machine Learning indica un proceso de estancamiento de contagios para
algoritmos con menor test de precisión como ARIMA (línea roja) y RANDOM FOREST (línea celeste),
así mismo el algoritmo PROPHET muestra señal deascenso de casos en los próximos meses, finalmente
los algoritmos ML indican que GLMNET y PROPHET W/XGBOOS ERROS muestran indicios de
presencia de cuarta ola, esto puede seralgo que puede ocurrir considerando de que las variantes de SARS-
CoV-2, Delta tiene mayor transmisibilidad, además de Gamma, Alpha que tienen fuerte incidencia de
contagio rápido, lamisma no estarían presente por ahora en Bolivia.
Figura 5 Algoritmos predictivos SARS-CoV-2. 30 /07/2021 a 30/10/2021.
Elaboración propia
En la Figura 5, se observa el pronóstico o predicción de infectados de manera diaria a detalle en los
próximos 90 días, el gráfico de serie de tiempo muestra de manera general un estancamiento de casos
en rangos de 1000 a 2000 infectados diarios, con intervalos de confianzade 95 % superiores a 3000 casos,
este fenómeno se presentaría en la cuarta ola desde principiosde septiembre hasta primera quincena de
octubre tal como señala el algoritmo PROPHET W/XGBOOS ERROS, mientras que otro algoritmo
GLMNET, indica que la cuarta ola se presentaría incluso mas antes. Todo da indicar que se viene una
cuarta ola con las variantes deSARS-CoV-2, incluso si se toma en cuenta los datos a corto plazo se podría
se podrá evidenciar
38
una quinta ola, esto puede sustentarse en las investigaciones realizadas por la revistascientíficas Nature
y The Scientist donde indican que las mutaciones de los virus son una realidad, y que estaré presente
activo en los próximos años.
Figura 6 Algoritmos individualizados Machine Learning SARS-CoV-2, Bolivia.
Elaboración propia.
Para poder mostrar con mayor detenimiento se desagregó los algoritmos ML con intervalo deconfianza
a 95%, en la primera parte se puede ver el algoritmo PROPHET predice que de subirán los casos en las
próximas semanas, entre tanto el modelo ARIMA indica el estancamiento de casos, la misma no se
cumpliría a cabalidad dado que sus test de precisión
son bajos.
Figura 7 Algoritmos individualizados Machine Learning SARS-CoV-2, Bolivia.
Elaboración propia
En la misma línea explicativa de anterior figura, aquí se muestran algoritmos que mejor predicen el nivel
de contagio, la analítica predictiva GLMNET indica un ascenso de casos o contagios en las próximas
semanas con cierto nivel de descenso para luego volver en senda alcista. Uno de los algoritmos de mayor
precisión, exactitud PROPHET W/XGBOOS ERROS indica que se viene una cuarta ola que iniciaría
con alto grado de contagios desde principio deseptiembre con duración de hasta primera quincena de
octubre. Este tipo de datos predictivospodría ayudar una toma de decisión estratégica en la gestión
publica sanitaria de manera
39
preventivo. Finalmente indicar que de acuerdo a evidencia empírica y análisis Correlación dePearson de
contagios y movilidad local muestra fuerte asociación "negativa" entre el rigor de las restricciones y
propagación de enfermedad, la reducción de movilidad en Bolivia no contiene el contagio con eficacia
(Ruiz, 2021), por lo anterior se puede determinar que los resultados resaltan la necesidad de
complementar las políticas de restricción con esquemas desensibilización, asistencia económica y salud,
antes de implementar las famosas cuarentenas orestricciones rígidas.
Conclusión
El presente artículo tuvo como objetivo examinar las implicaciones de algoritmos ML en precisión de
predicción de casos SARS-CoV-2, entre los hallazgos principales se puede explayarque los algoritmos
Machine Learning que mejor predicen casos de contagios a futuro son PROPHET W/XGBOOS ERROS,
GLMNET, seguido de PROPHET, a este carácter se añade la debilidad de precisión de los algoritmos
ARIMA y RANDOM FOREST, sin embargo el test global de precisión predictiva llega a 94%, siendo
valor estadístico similar a otros estudios científicos realizados.
Cabe destacar que el entrenamiento de datos mediante algoritmos de analítica predice que en los
próximos meses se evidenciará una cuarta ola, con tendencia similar a segunda o tercera ola, tal como
establece los intervalos de confianza a 95%, esto puede ocurrir ante la presencia de variante Delta que
tiene mayor transmisibilidad, además de las otras variantes como Gamma, Alpha, Epsilon que tienen
fuerte incidencia de contagio rápido.
Con estudios establecidos se puede entender que esta pandemia está aquí para durar y se volverá cada
vez más resistente, no queda otra alternativa que el proceso de adaptación de convivencia con mal
endémico en los próximos años, a sabiendo la fuerte asociación "negativa" entre el rigor de las
restricciones y propagación de enfermedad, no queda otra opción complementar las políticas de
restricción leves con esquemas de sensibilización, asistencia económica y salud, antes de implementar
cuarentenas o restricciones rígidas.
***Investigación en desarrollo***
40
Referencias
 Alballa, N., & Al-Turaiki, I. (2021). Machine Learning approaches in Covid-19 diagnosis,
mortality, and severity risk predicctión. Obtenido de
ELSEVIER:http://www.elsevier.com/locate/imu
 Alhayani, B., & Kwekha, A. (4 de Marzo de 2021). Coronavirus disease (COVID-19) cases
analysis using machine - learning applications. Obtenido de Applied Nanoscience:
https://doi.org/10.1007/s13204-021-01868-7
 Aljameel, S., Aslam, N., & at., e. (10 de 04 de 2021). Machine Learning based model to predict
the disease severity and outcome in COVID-19 patients. Obtenido de Hindawi:
https://doi.org/10.1155/2021/5587188
 Almad, F., Nassean, S., & al., e. (2021). Predictión of COVID-19, cases using Machine Learning
for effictive public health management. Tech Science Press, 10:32604.
 Bjornstad, O., Shea, K., Krzywinski, M., & A. N. (2020). The SEIRS model for infectious disease
dynamics. Nat Methods, 17:557–558.
 Bruce, P., Andrew, B., & Gedeck, P. (2020). Practical Statistics for Data Scientists. Oxford: Oreilly.
 Cervera, R., Espinoza, G., Ramos, M., Hernandez,
J., & al., e. (2020). Respuesta
Inmunoinflamatoria en el COVID-19. Buenos Aires: Panamericana.
 Cuevas, E. (2020). An agent-based model to evaluate the COVID-19 transmission risks in
facilities. Comput Biol Med., 121:103827.
 Hastie, T., Qian, J., & Tay, K. (24 de 06 de 2021). An Introduction to glmnet. Obtenido de
Standord.edu: https://glmnet.stanford.edu/articles/glmnet.html
 Iwendi, C., Peshkar, A., Sujatha, R., & al., e. (2020). Covid -19 Patient health prediction using
Boosted, Randon Forest Algorithm. Frontiers in Public Health , 8:357.
 Lantz, B. (2019). Machine Learning with R. Expert techniques for predictive modeling . Los Angeles:
Third Edition.
 Marfak, A., Achak, D., Azizi, A., Nejjari, C., & Aboudi, K. (2020). The hidden Markov chain
modelling of the COVID-19 spreading using Moroccan dataset. Data Brief., 32:106067.
 Nils, J. N. (2005). Introductión to Machine Learning. Stanford: Stanford University.
 Painuli, D., Mishra, D., & Bhardwaj, S. e. (21 de 05 de 2021). Forescating and prediction of COVID-
19 using MachineLearning. Obtenido de Data Science for COVID-
19:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8138040/
 Rahual, G., Balasaheb, A., & Mahalle, P. (2021). Data Analytics for pandemics. A Covid-19 case
estudy. New York: CRC Press.
41
 Ruiz, O. J. (2021). Big Data, Coronavirus y Economia. Caso de estudio Bolivia. IX Congreso
Internacional de Economia Etica. Bogota, Colombia: Universidad de Santo Tomás.
 Sahai, A., Rath, N., Sood, V., & Singh, M. (2020). ARIMA modelling & forecasting of COVID-
19 in top five affected countries. Diabetes Metab Syndr, 14:1419–1427.
 Shahriare, S., Koushik, H., Mufti, M., & al., e. (2021). Short - Term Predictión of Covid-19 Cases
Using Machine Learning Models. Applied Sciences, 11, 4266.
 Zhao, Y., Shou, M., & Wang, Z. (2020). Prediction of the Number of Patients Infected with
COVID-19 Based on Rolling Grey Verhulst Models. Int J Environ Res Public Health.,
17(12):4582.
42
II. Competencias en
TIC
43
Estudio de riesgos cibernéticos y los medios de seguridad que utiliza el
control parental en los adolescentes del sexto semestre de preparatoria
del Colegio Diego Rivera de Tuxtla Gutiérrez, Chiapas.
Competencias en TIC
Dra. Laura de Jesús Velasco Estrada1
Dra. Carmen Carolina Ortega Hernández2
Dra. Zoily Mery Cruz Sánchez3
Dra. Guadalupe Elizabeth Velasco Estrada4
Dr. Pedro Antonio Chambé Morales 5
1,3,4,5
UNACH, Facultad de Contaduría y Administración C-I y
2
UNACH, Facultad de Negocios C-IV
1
lvelasco@unach.mx (9611329188), CP 29020
Resumen. Actualmente la seguridad ha tomado gran importancia al momento de navegar por la red, debido
a los grandes peligros que existen en ella. Microsoft (2018) menciona que México se encuentra en la
posición penúltima de 14, en el Índice de Civilidad Digital1
(DCI, por sus siglas en inglés), donde 8 de
cada 10 adultos y adolescentes mexicanos encuestados por Microsoft reportan haber estado expuestos a
riesgos en línea, específicamente aquellos relacionados con temas sexuales o de intrusión de la privacidad.
Según los resultados del DCI en términos de preocupación por los riesgos al navegar en la red, México es
el segundo país con mayores niveles, tan solo detrás de la India. Los riesgos de reputación fueron los que
más preocupación generaron.
Palabras clave. Riesgo cibernético, control parental, seguridad
Abstract. Currently, security has taken great importance when browsing the Internet, due to the great
dangers that exist in it. Microsoft (2018) mentions that Mexico is in the penultimate position of 14, in the
Digital Civility Index (DCI, for its acronym in English), where 8 out of 10 Mexican adults and adolescents
surveyed by Microsoft report having been exposed to risks online, specifically those related to sexual or
privacy intrusive topics.
According to the DCI results in terms of concern about the risks when surfing the net, Mexico is the
second country with the highest levels, only behind India. Reputational risks generated the most concern.
Keywords. Cyber risk, parental control, security
Introducción
La presente investigación tiene como finalidad estudiar los riesgos Cibernéticos (Doxing,
Ciberbullying, Sexting, Grooaming); y los medios de seguridad, que utiliza el control parental, en los
adolescentes, con el objetivo de aportar propuestas de uso a los tutores y adolescentes en la
interacción con el ciberespacio, a través del Control Parental. Es importante recalcar qué tipo de
técnicas y procedimientos utiliza el control parental para llevar a cabo la gestión de seguridad en los
adolescentes y que tan importante es que conozcan en la actualidad el procedimiento adecuado para
la configuración del control parental para la protección de sus adolescentes.
Los riesgos mencionados involucran secuelas fatales en los adolescentes, de acuerdo con datos del
Consejo Ciudadano para la Seguridad y Justicia de la Ciudad de México (2020), así como también a
las familias y a la sociedad misma; en donde se observa que el alto índice en la trata de personas va
en aumento, que si bien no se produce con el único objetivo de someter a los adolescentes a
explotación sexual, este fin representa el 58% de los casos reportados, otra consecuencia son los
trabajos forzados que representan el 19%, aunado a eso existe la explotación laboral que equivale al
15%, donde los adolescentes se ven forzados a trabajar sin recibir ningún goce de sueldo,
1
El Índice de Civilidad Digital de Microsoft (DCI), es una medida del tono y tenor de las interacciones en línea.
44
exponiéndolos a los peligros de la calle, una más de las terribles consecuencias, es obligar a los
adolescentes a realizar actividades criminales de modo que los convierten en delincuentes, bajo
amenazas de atentar contra su vida o la de su familia, esto representa respectivamente, el 4%.
Problema de investigación
En una sociedad donde el proceso de la informatización ha tomado un papel importante,
Castells(2006), aporta que vivimos en la era informacional, en la sociedad del conocimiento, en la
cual los adolescentes interactúan más con los dispositivos digitales, y quedan expuestos a los riesgos
que existen al navegar en la red, derivado de ello, atrajo consigo una de las principales
preocupaciones por parte de los tutores (padres de familia), es mantener a salvo y en continua
vigilancia a sus adolescentes, esta preocupación proviene debido a que esta población es numerosa.
Nuestro objeto en estudio, alumnos de nivel preparatoria del sexto semestre del Colegio Diego
Rivera; en cifras del INEGI (2019), la población joven en Chiapas es del 37.5 % los cuales son
adolecentes (de 15 a 19 años). Es por ello que esta tesis da cuenta de los estudios de los factores de
riesgos (Doxing, Sexting, Ciberbullying y Grooaming), que se encuentran al navegar en la red; así
como los medios de protección de seguridad, que utiliza el control parental, en los adolescentes.
Preguntas de investigación
1. ¿Conocen los padres de familia (tutores), los riesgos (Doxing, Ciberbullying, Sexting,
¿Grooaming) y sus efectos en los adolescentes que existen al navegar en el ciberespacio?
2. ¿Conocen los padres de familia (tutores) el uso y el comportamiento que tienen los
adolescentes a la hora de navegar en el ciberespacio?
3. ¿Cuáles son las aplicaciones, sitios, páginas y juegos que los adolescentes utilizan con mayor
frecuencia? ¿Cuál es la atracción de los adolescentes al interactuar con el ciberespacio?
4. ¿Qué nivel de conocimiento tienen los adolescentes acerca de los riesgos que existen en el
ciberespacio (Doxing, Sexting, Ciberbullying, Grooming)?
5. ¿Qué medidas toman los tutores (padres de familia) para evitar los riesgos (Doxing, Sexting,
Ciberbullying, Grooming) en los adolescentes de sexto semestre de preparatoria del Colegio
“Diego Rivera”, al navegar en el ciberespacio?
6. ¿Los padres de familia (tutores) conocen el procedimiento y/o técnica adecuada de seguridad
que ofrece el Control Parental?
7. ¿Qué importancia toma el control parental para la protección de los adolescentes, cuando
navegan en el ciberespacio?
Objetivo general
Estudiar los riesgos Cibernéticos (Doxing, Ciberbullying, Sexting, Grooaming) y los medios de seguridad, que
utiliza el control parental, en los adolescentes del sexto semestre de Preparatoria del Colegio “Diego Rivera”.
Objetivos específicos
 Conocer los riesgos cibernéticos, sus características y sus efectos.
 Estudiar el uso y el comportamiento que tienen los adolescentes del sexto semestre de
preparatoria del Colegio “Diego Rivera”, al navegar en el ciberespacio.
 Indagar que aplicaciones, sitios, páginas, juegos, utilizan con mayor frecuencia.
 Buscar cuál es la finalidad de interactuar con estos espacios, que les atrae, que satisface en
ellos.
 Preguntar si conocen los riesgos que existen en el ciberespacio (Doxing, Ciberbullying,
Sexting, Grooaming).
 Indagar a los Padres de Familia (Tutores) si tienen conocimiento de la existencia de las
medidas de seguridad del Control Parental, en la interacción que sus hijos realizan con el
ciberespacio.
 Dar a conocer los riesgos del ciberespacio en el cual interactúan los adolescentes, así como
las medidas de seguridad que utiliza el control Parental.
45
 Aportar propuestas de uso a los Tutores y adolescentes en la interacción con el ciberespacio,
a través del Control Parental, y de las leyes que rigen en este ámbito.
Estado del arte
Definición de Cibernética
La Universidad La Salle, México (2019) expresa que, en la actualidad, el concepto de Cibernética es
tan vigente como en sus inicios; sin embargo, es importante considerar que ésta ha evolucionado
conforme al paso de las décadas. Y se describe que la Cibernética es la ciencia de los sistemas de
control y comunicación basados en retroalimentación, soportados o impulsados por la computación,
particularmente en su relación con los seres vivos y el ser humano.
Definición de Riesgo
Según la OMS (2011) dice que un factor de riesgo es cualquier rasgo, característica o exposición de
un individuo que aumente su probabilidad de sufrir una enfermedad o lesión. Entre los factores de
riesgo más importantes cabe citar la insuficiencia ponderal, las prácticas sexuales de riesgo, la
hipertensión, el consumo de tabaco y alcohol, el agua insalubre, las deficiencias del saneamiento y
la falta de higiene.
Definición de Riesgo cibernético
De acuerdo con el Instituto Nacional de Estándares y Tecnología de los Estados Unidos de
Norteamérica (NIST por sus siglas en inglés) (2019), se define el riesgo cibernético como el riesgo
de pérdida financiera, interrupción operativa o daño, debido a la falla de las tecnologías digitales
empleadas para funciones informativas/operativas introducidas a un sistema por medios
electrónicos sin acceso autorizado, para el uso, divulgación, interrupción, modificación o
destrucción de los sistemas.
Definición de Doxing o Robo de información
Kaspersky Internet Security (2021) argumenta que el término “doxing”, es la abreviación de
“exponer dox”, siendo “dox” un término coloquial para referirse a los documentos. Por lo general, es
una acción maliciosa que un hacker realiza contra personas con las que está en desacuerdo o que
considera desagradable.
El doxing (a veces escrito como doxxing) consiste en revelar información identificadora de una
persona en línea, como su nombre real, dirección particular, lugar de trabajo, teléfono, datos
financieros y otra información personal. Luego, esta información se divulga al público sin el permiso
de la víctima.
Definición de Cyberbullying
Ciberbullying es una adaptación de las palabras en inglés cyber y bullying; en español lo conocemos
como ciber abuso o violencia entre iguales. Como lo hace notar Corona (2017) participante de la
Asociación de Internet MX, ciberbullying es un término que se utiliza para describir cuando un niño
o adolescente es molestado, amenazado, acosado, humillado, avergonzado o abusado por otro niño o
adolescente, a través de Internet o cualquier medio de comunicación como teléfonos móviles o
tablets.
Definición de Sexting
Como expresa Robot (2016) El concepto de “Sexting” trata de una palabra compuesta de otras dos:
“sexo” y “texting“, y es un concepto que presupone compartir información íntima a través de
mensajes de texto, fotos o videos.
46
Actualmente, las tecnologías de las que disponemos hacen que el sexting sea una actividad que no
requiere de ningún esfuerzo. Con un solo clic puedes hacerte fotos y enviarlas mediante una app de
mensajería instantánea (del tipo de WhatsApp, Viber, Snapchat o Skype), escribir mensajes
personales en redes sociales o cualquier otra forma de compartir información.
Definición de Grooming
Pereira (2020) argumenta que el grooming es un problema relacionado con la seguridad de los
menores cuando navegan por las redes sociales, el cual consiste en acciones premeditadas por parte
de un adulto con el fin de estrechar lazos de amistad con un menor para obtener una satisfacción
sexual mediante imágenes eróticas o pornográficas del menor o incluso como premisa para un
encuentro sexual.
Normalmente, los groomers se hacen pasar por menores de edad para poder contactar con los niños,
ganarse su confianza y lograr que les envíen fotos o videos comprometidos (de desnudos o actitudes
sexuales explícitas) para luego manipularles de revelarlos públicamente y así conseguir un abuso
sexual en la realidad.
Seguridad cibernética
Gómez (2010), en su obra Enciclopedia de la Seguridad Informática, define el concepto de seguridad
cibernética como cualquier medida que impida la ejecución de operaciones no autorizadas sobre un
sistema o red informática, cuyos efectos puedan conllevar daños sobre la información, comprometer
su confidencialidad, autenticidad o integridad, disminuir el rendimiento de los equipos o bloquear el
acceso de usuarios autorizados al sistema.
Definición de Control Parental
Álvarez et al (2019). Refiere que se llama Control Parental a cualquier herramienta que permita a los
padres controlar y/o limitar el contenido que un menor puede utilizar en la computadora o accediendo
en Internet. Estas herramientas pueden ser automatizadas o no.
Las herramientas automatizadas son aplicaciones para la computadora que permiten trabajar en dos
niveles de seguridad: la prevención y el control. Ninguna de estas herramientas es 100% efectiva por
lo que debemos ser conscientes de la importancia de las herramientas no automatizadas: la educación
y la concientización. El diálogo con los menores es la mejor herramienta de prevención para los
riesgos que existen en la red.
Metodología utilizada
La metodología para esta investigación es de tipo exploratoria, al estudiar los tipos de riesgos que
existen en el ciberespacio. También es de cohorte descriptivo se describen las variables dependientes
e independientes del objeto en estudio, así como los medios de seguridad que utiliza el control
parental.
Esta investigación cuenta con el universo o población, de 46 actores, 16 alumnos (adolescentes) del
sexto semestre de preparatoria, 22 padres de familia (tutores) y 8 profesores, del Colegio Diego
Rivera; de la Ciudad de Tuxtla Gutiérrez, Chiapas.
Las unidades básicas de investigación la conforman los padres de familia (tutores), profesores y
adolescentes de los grupos de sexto semestre de Preparatoria. Esto con el propósito de recolectar
información necesaria.
El tipo de muestra es de tipo probabilística, en razón a que todos los elementos a estudiar tienen la
misma probabilidad de formar parte de la muestra, y se obtienen definiendo las características de la
población y el tamaño de la muestra, considerando el alcance y la selección de forma aleatoria, las
cuales se realizaron con la fórmula estadística.
Para el desarrollo de esta investigación se utilizaron técnicas de recolección de datos, como son las
47
Encuestas, con preguntas de tipo dicotómicas y de opción múltiple, se diseñaron tres tipos de
encuestas, las cuales se implementaron a través de formularios google en línea.
Plan de procesamiento de la información, se utilizó el siguiente criterio:
 Levantamiento de información
 Clasificación de la información
 Registro de la información
 Análisis de la información obtenida
 Verificación de la información
 Archivo de la información
Resultados experimentales
Gráfica 1: Representación gráfica de la opinión de los alumnos del Colegio Diego Rivera.
Fuente: Elaboración propia, encuesta realizada en línea.
De acuerdo con los datos que se muestran en la gráfica, se observa que la mayoría de los adolescentes
han escuchado hablar de los riesgos cibernéticos, el 100% confirma que si conoce el riesgo de
ciberbulliyng, puesto que, es el tema más relevante hoy en día, de igual forma un 100% conoce el
riesgo sexting ya que es una práctica muy común entre los adolescentes, el 93.8% menciona que
conocen o ha oído hablar del tema de grooming, el 62.5% ha escuchado hablar acerca del doxing, y
el 6.3% señala que no ha oído hablar de ninguno de estos riesgos lo que demuestra el poco interés
que existe en el tema aun siendo un peligro constante para los adolescentes
48
Gráfica 2: Representación gráfica de la opinión de los alumnos del Colegio Diego Rivera.
Fuente: Elaboración propia, encuesta realizada en línea.
La integridad del adolescente es de suma importancia es por ello esta pregunta donde el 56.3%
respondió que no ha sufrido discriminación al navegar en el ciberespacio, el 37.5% de los
adolescentes ha sufrido de 1 a 3 veces discriminación al navegar en el ciberespacio, por último, el
6.3% ha sufrido discriminación de 3 a 10 veces en las redes sociales, lo que los convierte en víctimas
de ciberbullying.
Gráfica 3: Representación gráfica de la opinión de los alumnos del Colegio Diego Rivera.
Fuente: Elaboración propia, encuesta realizada en línea.
De acuerdo a las respuestas obtenidas en la encuesta para esta pregunta se observa que el 81.3 % de
los adolescentes no ha utilizado ninguna de las aplicaciones de control parental que son mencionadas
lo que indica que no las conocen, no saben utilizarlas, el 12.5% ha utilizado Parental control bar para
restringir lo que hace su adolescente, el 6.3% a utilizado Youtube Kids, el 6.3% ha utilizado Bsecure,
el otro 6.3% usa Norton Online Family y el resto del 6.3% utiliza FoxFilter. Con estos porcentajes
podemos observar que existen adolescentes que, si han utilizado algunas de estas aplicaciones, lo que
quiere decir que si han hecho algo al respecto con respecto a su seguridad física y moral.
Conclusión
Esta investigación da cuenta del estudio de los riesgos cibernéticos que existen hoy día, estos usos se han
incrementado más, en este tiempo, debido a la pandemia en la cual estamos más inmersos al uso del
computador, en este estudio se describieron los diferentes tipos de riesgo que existen en el ciber espacio, los
cuales ocasionan y dañan a los adolescentes, mentalmente, físicamente, moralmente, hay causas y efectos muy
graves, que han llegado a perdidas lamentables.
Es por ello que este estudio, se sustenta en los riesgos, y las consecuencias de estos. Cabe señalar que
estas gráficas únicamente refieren a las encuestas realizadas a los adolecentes, en la gráfica 13; se
pueden observar los resultados en cuestión, en donde se pregunta si los adolescentes conocen de los
49
riesgos en el ciber espacio, como es el ciberbulling, el grooming, el sexing, y el doxing, y el
porcentaje que arroja la encuesta es del 100 %, esto quiere decir que los adolescentes tienen el
conocimiento de la existencia de este tipo de riesgos, en la pregunta 15 el 37.5% de los adolescentes,
ha sufrido de 1 a 3 veces discriminación al navegar en el ciberespacio, y el 6.3% ha sufrido
discriminación de 3 a 10 veces en las redes sociales, con estos datos se convierten en víctimas de
ciberbullying, aportación de Corona (2017). Así también en la pregunta 26 indica si han utilizado
medidas de control parental el 81.3 % de los adolescentes no ha utilizado ninguna de las aplicaciones
de control parental que son mencionadas lo que indica que no las conocen, el 12.5% ha utilizado
Parental control bar, el 6.3% ha utilizado Youtube Kids, el 6.3% ha utilizado Bsecure, el otro 6.3%
usa Norton Online Family y el resto del 6.3% utiliza FoxFilter. Con estos resultados de gráficas más
sobresalientes en cuanto a la investigación, se puede dilucidar del riesgo en el cual están inmersos
los adolescentes en la cotidianeidad, es relevante implementar procesos de enculturamiento relativos
a las medidas de seguridad que ofrece el control Parental, esto debe ser parte de las políticas públicas
del sistema educativo y del sistema social-familiar, las propuestas de esta investigación están
sustentadas en el funcionamiento de herramientas más sobre salientes en cuanto a medidas de
seguridad del Control Parental. Manuel Castells (2006) menciona de la sociedad informacional en la
cual vivimos y que día a día, las tecnologías de información rebasan nuestra autonomía. En otro tenor
Peter Druker (2018) señala que las TIC acercan al ser humano y optimizan los procesos. Dos
conceptualizaciones lógicas.
Este estudio dictamina tener cuidado, atención, precaución en el uso y adopción, del ciber espacio,
el comportamiento de cada actor es diversificado en cuanto a usos, gustos preferencias y hábitos.
Referencias
[1] Álvarez García, D., García, T., Fernández Cueli, M. S., & Núñez, J. C. (2019). Control parental del uso de
Internet durante la adolescencia: evolución y diferencias de género. Revista iberoamericana de diagnóstico
y evaluación psicológica, 51 (2), p. 19-31 (2019); doi: 10.21865/RIDEP51. 2.02.
http://bibliomed.usac.edu.gt/tesis/post/2015/064.pdf.
[2] Álvaro Gómez (febrero 2010), en su obra Enciclopedia de la Seguridad Informática, Capital humano N°185
pág. 68.
[3] Castro Cooz, V. A., & Baldillo Quinatoa, M. B. (2015). Diseño de estrategias comunicacionales para la
aplicación del control parental dirigido a estudiantes y padres de familia del tercer año de educación básica
paralelo b de la escuela fiscal mixta n° 111 Dr. Otto Arosemena Gómez de Guayaquil (Bachelor's thesis,
Guayaquil: ULVR, 2015.).
[4] Capano, A., y Ubach, A. (2013). Estilos parentales, Parentalidad Positiva y formación de padres. Ciencias
Psicológicas VII (1): 83 -95.
[5] Chicano Tejada, E. (2014). Gestión de incidentes de seguridad informática (1.a ed., Vol. 1) [Libro
electrónico]. IC.
https://books.google.es/books?hl=es&lr=&id=y63KCQAAQBAJ&oi=fnd&pg=PT4&dq=definicion+de+s
eguridad+informatica&ots=zoyxncAboP&sig=HL-
nkxzuglZgfDUAWr_W4uU_tU8#v=onepage&q&f=true
[6] González, C. (2020, 15 octubre). Ciberbullying: definición, características y tipologías. Guía Emagister.
https://www.emagister.com/blog/ciberbullying-definicion-caracteristicas-tipologias/
[7] Hernández, S. (2018). Metodología de la investigación: las rutas cuantitativa, cualitativa y mixta. McGraw
Hill México.
[8] Kaspersky Internet Security (2021, 9 febrero). Doxing: definición y explicación. latam.kaspersky.com.
https://latam.kaspersky.com/resource-center/definitions/what-is-doxing
[9] Morales, Y. et al (2020, 14 agosto). ¿Qué es el grooming y sexting y por qué los jóvenes minimizan los
riesgos de internet? Chiapasparalelo. https://www.chiapasparalelo.com/noticias/chiapas/2020/08/que-es-el-
grooming-y-sexting-y-por-que-los-jovenes-minimizan-los-riesgos-de-internet/
[10] Rivera, S (2019). Los Riegos cibernéticos. Boletín Criminológico N. 11 Instituto de Criminología
Universidad de Santiago de Compostela.
https://www.usc.es/export9/sites/webinstitucional/gl/institutos/criminoloxia/descargas/Los_Delitos_Infor
mxticos.pdf
50
[11] Vieites, Á. G. (2011). Enciclopedia de la seguridad informática (Vol. 6). Grupo Editorial RA-MA.
https://books.google.es/books?hl=es&lr=&id=Bq8-
DwAAQBAJ&oi=fnd&pg=PT2&dq=definicion+de+seguridad+informatica&ots=dxk5ZjWhjH&sig=ITsp
Wrizsj5WAT_k8j5tIWccuI4#v=onepage&q&f=false
51
Diseño de instrumento para evaluar el pensamiento computacional en
alumnos de ingeniería que cursan la asignatura de Programación
Competencias en TIC
Janette Araceli Castellanos Barajas1
, Abelardo Gómez Andrade2,
María Elena Romero Gastelú3
1
janette.castellanos@academicos.udg.mx, 2
abelardo.gandrade@academicos.udg.mx,
3
elena.romero@academicos.udg.mx,
1, 2, 3
Universidad de Guadalajara, Centro Universitario de Ciencias Exactas e Ingenierías, División de
Electrónica y Computación, Departamento de Ciencias Computacionales, Módulo “O” Planta Baja, Blvd.
Marcelino García Barragán #1421, esq. Calzada Olímpica, C.P. 44430, Guadalajara, Jalisco, México.
Resumen: El siguiente trabajo presenta el diseño de un test que tiene por objetivo determinar el nivel
del “Pensamiento computacional” en alumnos que cursan las asignaturas de Programación y
Programación Aplicada a la Ingeniería con claves I5882 e IC589 respectivamente, en ciclo escolar
2021B en el Centro Universitario de Ciencias Exactas e Ingenierías de la Universidad de Guadalajara.
El instrumento se realizó utilizando el software Scratch por sus similitudes con los contenidos de los
programas de estudio. Este cuestionario permitirá conocer la percepción de cómo el alumno interpreta
algunos planteamientos relacionados con bloques de instrucciones para solucionar un problema.
Palabras clave: Lenguaje C, Pensamiento computacional, Programación, Scratch.
Abstract. The following work presents the design of a test that aims to determine the level of
"Computational Thinking" in students who take the subjects of Programming and Programming Applied
to Engineering with codes, I5882 and IC589 in school year 2021B at the University Center of Exact
Sciences and Engineering from the University of Guadalajara. The instrument was made using Scratch
software due to its similarities with the contents of the study programs. This questionnaire will allow to
know the perception of how the student interprets some approaches related to blocks of instructions to
solve a problem.
Keywords: Computational Thinking, Language C, Programming, Scratch.
1 Introducción
“En este mundo de la era digital, en el que vivimos, una de las competencias fundamentales que los estudiantes
deben adquirir es la del Pensamiento Computacional. Aunque no existe un consenso general sobre una
definición, existe una comprensión general de la misma como un conjunto de habilidades y actitudes necesarias
para la resolución, con o sin computadora, de los problemas que puedan surgir en cualquier ámbito de la vida.
Medir y evaluar cuál de las competencias adquiridas por los alumnos es fundamental y, para ello, instrumentos
de medida previamente validados deben ser usados” [1]. Por lo anterior, el conocer el grado de pensamiento
computacional en los alumnos de las carreras de Ingeniería Informática e Ingeniería en Computación es esencial
para facilitar su éxito profesional. Estas carreras pertenecen a la División de Electrónica y Computación de la
Universidad de Guadalajara del Centro Universitario de Ciencias Exactas e Ingenierías. Profesores
involucrados en este proceso de enseñanza – aprendizaje y que impartimos las materias de Programación y
Teoría de la Computación, formularon las siguientes interrogantes: ¿Cómo es el nivel de pensamiento
computacional en los alumnos de primer ingreso a las carreras de ingenierías? ¿Cómo se puede medir este nivel
de pensamiento computacional? ¿Se puede diseñar un instrumento adecuado a los estudiantes de nuestras
carreras?
2 Estado del Arte
52
“Es sabido que el Pensamiento Computacional carece de un marco de referencia común que determine cuál
es su definición y los componentes que lo forman y este hecho provoca un vacío en el desarrollo de
metodologías y herramientas de evaluación. En consecuencia, existe la necesidad de llevar a cabo estudios que
evidencien el efecto del aprendizaje de la programación informática en el desarrollo del Pensamiento
Computacional, ya que estos no abundan entre la literatura especializada. Se tiene la intención de aportar nuevo
contenido que ayude a la construcción de conocimiento sobre cómo evaluar el Pensamiento Computacional en
alumnos de Educación Primaria. El estudio se realizó con un cuestionario como herramienta de recogida de
información cuantitativa” [2].
“El pensamiento computacional ha sido incorporado formalmente en el sistema educativo de varios países,
aunque no hay consenso sobre un marco conceptual para incorporar el pensamiento computacional en el
currículo” [3]. En este trabajo de investigación se describe cómo se realizó el estudio para conocer la percepción
de los estudiantes sobre el pensamiento computacional, misma que se llevó a cabo con un enfoque cualitativo
de alcance descriptivo mediante entrevistas que estuvieron basadas en un recurso de autoevaluación que se
representa en forma de escalera, donde cada escalón corresponde al proceso de aprendizaje, respondiendo desde
el escalón inferior y fue aplicado a estudiantes que acreditaron la asignatura de introducción a la programación.
En una investigación previa consultada se determina el estado inicial de los estudiantes de nuevo ingreso de
las carreras de tecnologías de la información de la Universidad Tecnológica de Puebla en México para
determinar el desempeño académico en el curso de la Metodología de Programación para el nivel superior. El
instrumento midió cinco habilidades del pensamiento computacional, que son abstracción, generalización,
descomposición, diseño algorítmico y la evaluación. Se identificó una relación entre los contenidos temáticos
del curso y se determinaron las fortalezas y debilidades de los estudiantes con el objetivo de apoyar su
desempeño académico. [4]
El Pensamiento Computacional ha recibido considerable atención en los últimos años, aunque no existe
acuerdo sobre lo que debe incluir una definición de este (Allan et al., 2010; Barr & Stephenson, 2011; National
Academies of Science, 2010). Cuny, Snyder, and Wing (2010) definen el Pensamiento Computacional como
los “procesos de pensamiento involucrados en formular problemas y encontrar sus soluciones de manera que
las soluciones estén representadas de forma tal que puedan llevarse a cabo efectivamente por un agente que
procesa información”; descripción ésta que atinadamente (aunque de forma concisa) encuadra el trabajo de los
creadores computacionales. [5]
Con Scratch, que es un software gratuito, se puede programar historias interactivas propias, juegos,
animaciones y compartir las creaciones con otros en la comunidad online. Scratch ayuda a los jóvenes a
aprender a pensar de forma creativa, a razonar sistemáticamente, y a trabajar de forma colaborativa con
habilidades esenciales para la vida en el siglo XXI. Scratch está diseñado, desarrollado y moderado por Scratch
Foundation, una organización sin fines de lucro cuyo sitio oficial es https://scratch.mit.edu/ [6].
Existen otros softwares similares [7] a Scratch, que a través de bloques que representan distintos conceptos
de programación, los estudiantes pueden crear personajes animados, videojuegos o hasta vídeos musicales.
Cuentan, además, con plantillas que facilitan la tarea ya que con ellas se puede seleccionar y personalizar un
escenario, un sonido o un personaje siendo el propio alumnado el que interactúa con ellos mediante el uso de
comandos lógicos. Por ejemplo, Bebras es una iniciativa internacional que tiene como objetivo promover la
informática (Ciencias de la Computación o Computación) y el pensamiento computacional entre los estudiantes
de escuelas de todas las edades. Los participantes suelen estar supervisados por profesores que pueden integrar
el desafío Bebras en sus actividades de enseñanza. El desafío se realiza en las escuelas utilizando computadoras
o dispositivos móviles. [8]
La programación estructurada es un paradigma de programación orientado a mejorar la claridad, calidad y
tiempo de desarrollo de un programa de computadora, utilizando únicamente subrutinas y tres estructuras:
secuencia, selección (if y switch) e iteración (bucles, for y while), considerando innecesario y contraproducente
el uso de la instrucción de transferencia incondicional (GOTO), que podría conducir a "código espagueti", que
es mucho más difícil de seguir y de mantener y era la causa de muchos errores de programación. [9]
3 Metodología usada
La medición del Pensamiento Computacional se realizará a través de un instrumento tipo test que se aplica
a los alumnos de la unidad de aprendizaje de Programación y de Programación Aplicada a la Ingeniería. Se
realiza una investigación con un método cuantitativo estadístico, mediante la técnica del cuestionario y la
interpretación de los datos recabados. El paradigma positivista (cuantitativo) busca descubrir el conocimiento
a partir de relaciones causa-efecto con las que pretende controlar, explicar y predecir hechos. El investigador
53
busca la neutralidad y hace que prevalezca la objetividad. Este instrumento se centra en aspectos observables
que sean posibles de cuantificar y sean libres de valores. [10]
La unidad de aprendizaje de “Programación”, para toda carrera orientada a las Tecnologías de la Información
y la Comunicación (TICs) de nivel superior, es fundamental para la adecuada adquisición de conocimientos en
muchas otras unidades posteriores de las carreras de Ingeniería en Computación (INCO) e Ingeniería
Informática (INNI). El nivel de aprovechamiento logrado en la unidad de aprendizaje de “Programación” incide
de manera importante, en la de “Estructuras de Datos”, entre otras; esta última presenta un alto índice de
reprobación y deserción en las carreras antes mencionadas, que se imparten en el Centro Universitario de
Ciencias Exactas e Ingenierías en la Universidad de Guadalajara.
Se sabe que un número importante de estudiantes ha estudiado previamente cursos de Programación de
computadoras, y que se han formado en sistemas de nivel medio superior. Sin embargo, se desconoce con qué
herramientas han aprendido a programar y a qué nivel y de la misma forma se desconoce en qué sistemas de
nivel medio superior aprenden a programar. Por lo anterior es necesario conocer si estos cursos previos han
fortalecido el pensamiento computacional en alumnos de primer ingreso a carreras de ingenierías. [11]
La frase Pensamiento Computacional nos ayuda a pensar sobre el aprendizaje con Scratch; existe la creencia
de que programar con Scratch ofrece un contexto y un conjunto de oportunidades para contribuir en la
conversación activa sobre Pensamiento Computacional. Existe el interés sobre la forma en que las actividades
de aprendizaje basadas en diseño, particularmente la programación de medios interactivos apoya el desarrollo
del Pensamiento Computacional en los jóvenes. Ese interés lo estimula, en parte, la creciente disponibilidad de
herramientas que permiten a los jóvenes diseñar sus propios medios interactivos. Pero, más importante aún,
ese interés hunde sus raíces en el compromiso de aprender mediante el diseño de actividades, enfoque
constructivista del aprendizaje que resalta la importancia de que los jóvenes se comprometan o involucren con
el desarrollo de artefactos externos (Kafai & Resnick, 1996). [5]
Durante los últimos años, estudiando la actividad de la comunidad en línea de Scratch y de los talleres sobre
Scratch, se ha desarrollado una definición de Pensamiento Computacional que incluye tres dimensiones clave:
conceptos computacionales (los que emplean los diseñadores a medida que programan); prácticas
computacionales (las que desarrollan los diseñadores a medida que programan) y perspectivas computacionales
(las que los diseñadores construyen sobre el mundo a su alrededor y sobre ellos mismos). [5]
Pasos:
1. Identificar la muestra: La muestra se corresponde al 20% de la matrícula de 1710 alumnos de primer
semestre que cursan la materia de Programación y de Programación Aplicada a la Ingeniería, del ciclo
escolar 2021B, de las carreras de Ingeniería Informática, Ingeniería en Computación, Ingeniería en
Comunicaciones y Electrónica, Ingeniería Biomédica e Ingeniería Civil, quienes tienen edades entre
18 y 24 años, de ambos sexos, con estudios previos de bachillerato, todos alumnos del Centro
Universitario de Ciencias Exactas e Ingenierías.
2. Diseñar el instrumento: El instrumento se diseñó con un formulario de Google y se ilustró con
imágenes que se generaron con Scratch, para lo cual se tomó como referencia la propuesta de Cerreata,
[12] la cual revisó y se rectificó a los programas de estudio I5882 e IC589. El Scratch por sus ventajas
y características se adapta mejor a los programas de estudios a los que pertenecen los alumnos que
participan en este estudio, por lo que se optó por utilizar este software.
3. Validar el instrumento: El instrumento fue validado por el Jefe del Departamento de Ciencias
Computacionales, el Dr. Arturo Valdivia González y por la Dra. Lizbeth Sabrina Vega Maldonado,
Coordinadora de la Maestría en Ciencias en Ingeniería Electrónica y Computación, ambas autoridades
pertenecen a la División de Electrónica y Computación. Entre los aspectos que se consideraron para
validar este instrumento están algunos, tales como el empleo de términos comprensibles para los
participantes, la confiabilidad de los resultados o la correcta secuenciación de los reactivos entre otros.
4. Aplicar el instrumento: El instrumento se aplicó con el apoyo de los profesores de la Academia de
Programación del Departamento de Ciencias Computacionales que imparten las materias de
Programación y de Programación Aplicada a la Ingeniería.
Es importante mencionar que ambos programas de estudio son similares en la mayoría de los temas, a
continuación, se muestra en la Tabla 1 el comparativo de temas de ambas materias y su equivalente en Scratch.
Programación I5882 Programación aplicada a
la ingeniería IC589
Scratch
68 horas 51 horas 20 horas
54
1. Programación
estructurada
2. Arreglos
3. Manejo de
funciones
4. Registros
1. Programación
estructurada
2. Arreglos
3. Manejo de funciones
1. Pensamiento computacional
2. Conceptos del pensamiento
computacional
● Secuencias
● Ciclos
● Eventos
● Paralelismo
● Condicionales
● Operadores
● Datos
Tabla 1. Comparativo temático de I5882, IC589 y Scratch.
4 Resultados
El instrumento consta de cuatro secciones y veinte reactivos que a continuación se muestran.
En la sección uno se muestra el objetivo del test y su información general sobre los antecedentes de
programación de los estudiantes:
● Objetivo del test: El presente test tiene por objetivo determinar el nivel del “Pensamiento
computacional” en alumnos que cursan las asignaturas con claves I5882 e IC589 en el ciclo escolar
2021B.
● La información general sobre los antecedentes de programación:
○ Código de estudiante
○ Carrera
○ ¿Has llevado otros cursos de programación previamente al actual?
○ ¿Desde cuándo practicas la programación? Selecciona la respuesta que sea la más cercana al
tiempo que tienes programando.
○ ¿Has utilizado el software Scratch?
○ ¿Has recibido apoyo o ayuda para aprender a programar de algún familiar o amigo fuera de
la escuela?
Imagen 1. Sección uno del test.
La sección dos tiene por objetivo medir la apreciación sobre conceptos básicos de programación y la sección
55
tres tiene por objetivo medir otros conceptos desde el punto de vista de la práctica de la programación.
Imagen 2. Sección dos del test.
En la Tabla 2 se enlistan los reactivos que se plantean en las secciones dos y tres.
Reactivo y escalas de evaluación
Los siguientes reactivos se evalúan con las siguientes escalas:
Con valores del 1 al 5, donde:
● el 1 representa “No comprendo el concepto”
● el 5 representa “Comprendo completamente el concepto”
Analiza el bloque propuesto. (A.1) ¿Entiendes el concepto de "una secuencia de instrucciones en el bloque
presentado”?
Analiza el bloque propuesto. (A.2) Ciclos: ¿has entendido bien el concepto de los ciclos en el bloque
presentado y para qué sirven? Mira la diferencia entre indicar varios bloques repetidos o indicar un ciclo con
dos instrucciones anidadas en el siguiente ejemplo.
Analiza los bloques propuestos. (A.3) Eventos: ¿has entendido la finalidad de los eventos en el bloque
presentado? Por ejemplo, cuando enviábamos un mensaje de un bloque a otro.
Analiza los bloques propuestos. (A.4) Paralelismo: ¿has entendido el concepto de paralelismo entre bloques,
en el bloque presentado a continuación? Es decir, cada bloque tiene su propia secuencia de instrucciones, por
ejemplo, supongamos que cada bloque es un jugador de fútbol, para cada uno de ellos se define una secuencia
de instrucciones para moverse en una cancha.
Analiza el bloque propuesto. (A.5) Condicionales: ¿has entendido para qué se utilizan las instrucciones
condicionales en el bloque presentado? Es decir, llevar a cabo una acción u otra según lo ocurrido o según el
valor de una variable. En este bloque se representa lo siguiente: Si toca el borde se acaba el juego, si no sigue
avanzando.
Analiza el bloque propuesto. (A.6) Operadores: ¿has entendido para qué podemos utilizar las instrucciones
de tipo operadores en el bloque presentado?
Analiza el bloque propuesto. (A.7) Datos: Las variables nos permiten guardar y recuperar datos. En este
ejemplo: la variable es el marcador A y se le suma un punto (dato) al meter un gol. ¿Has entendido cómo
guardar y recuperar datos en el bloque presentado?
(A.8) Práctica incremental e iterativa: este concepto se refiere a desarrollar las aplicaciones buscando la
solución poco a poco, probando opciones y adaptándolas en cada momento.
(A.9) Práctica de ensayo y depuración: Este concepto se refiere que, durante el desarrollo de una aplicación,
cuando se detecta algún problema, se busca dónde se encuentra el error realizando diversas pruebas.
(A.10) Práctica de reusar y remezclar: Este concepto se refiere a reutilizar parte de las instrucciones realizadas
previamente en otros proyectos o en otros bloques para no tener que llevarlos a cabo de nuevo.
(A.11) Práctica de abstraer y modularizar: Este concepto se refiere a que en el diseño de aplicaciones organizas
en módulos independientes grupos de instrucciones, cada grupo con un fin específico. Por ejemplo, podría
haber un módulo para realizar los movimientos de los jugadores y otro para indicar que hay que sumar un
punto en el marcador.
Tabla 2. Listado de reactivos de las secciones dos y tres del test.
56
Imagen 3. Sección tres del test.
En la sección 4 se presentan las bondades del software Scratch, tales como desarrollar la creatividad, compartir
trabajos, trabajar colaborativamente, ayuda a aprender a programar entre otras ventajas; sus reactivos se
muestran en la Tabla 3.
Reactivo Tipo de respuesta
(A.12) Perspectiva de expresar: Consideras que,
del análisis de las imágenes de las preguntas
anteriores, el software Scratch te permitiría
desarrollar tu capacidad creativa.
Escala lineal
Con valores del 1 al 5
Donde:
* el 1 representa “En desacuerdo”
* el 5 representa “Totalmente de acuerdo”
(A.13) Perspectiva de conectar: Scratch permite
compartir tus trabajos con otros usuarios, así como
utilizar otros que ya han sido creados a través de
una comunidad virtual. ¿Te parece esto interesante
y productivo?
Escala lineal
Con valores del 1 al 5
Donde:
* el 1 representa “En desacuerdo”
* el 5 representa “Totalmente de acuerdo”
(A.14) Perspectiva de preguntar: ¿crees que el
software Scratch te ayudaría a aprender a
programar?
Escala lineal
Con valores del 1 al 5
Donde:
* el 1 representa “En desacuerdo”
* el 5 representa “Totalmente de acuerdo”
Tabla 3. Bondades del software Scratch
Imagen 4. Sección cuatro del test.
A continuación (Tabla 4) se ilustran dos ejemplos con bloques diseñados para Scratch.
Bloque de Scratch Significado
Se refiere a eventos entre bloques de sentencias,
por ejemplo, cuando se envía un mensaje de un
bloque a otro.
Analiza los bloques propuestos. (A.3)
57
Se refiere a cómo las variables permiten guardar y
recuperar datos.
Tabla 4. Significado de algunos bloques con Scratch
El test fue respondido por 365 estudiantes de las carreras participantes, dónde 99 son alumnos de Informática
y 77 de Computación. El 65% de los estudiantes no han llevado cursos de programación previos. Son 215
estudiantes los que están cursando su primer curso de programación y 19 estudiantes tienen 4 años
programando. De los participantes 92% no ha utilizado Scratch. Sólo 83 alumnos reciben apoyo de un amigo
o familiar para aprender a programar.
Con respecto a la evaluación de los bloques de Scratch que representan conceptos básicos de programación
se encontró que:
● Para el de “secuencia de instrucciones” 112 alumnos dicen comprender completamente el concepto.
● Para el de “ciclos” 107 estudiantes comprenden completamente el concepto.
● Para el de “eventos” en las escalas de evaluación 3 y 4 fueron en ambos casos 76 estudiantes que
tuvieron esta opinión.
● Para el de “paralelismo entre eventos” la mayoría de las opiniones, que fueron 89, se reflejaron en la
escala de evaluación 3.
● Para el de “condicionales” fueron 129 alumnos quienes respondieron que comprenden completamente
el concepto.
● Para el de “operadores” 118 estudiantes opinaron que comprenden completamente el concepto.
● Para el de “dato” sólo 85 personas respondieron que comprenden completamente el concepto.
En la siguiente sección del test, que abarca otros conceptos de Scratch relativos a la programación, respondieron
de la siguiente manera:
● Sobre el de diseñar aplicaciones de manera incremental, la tendencia de las respuestas fue en la escala
de evaluación 3, con 105 opiniones.
● Sobre el de depurar programas y buscar errores, 133 estudiantes opinaron que comprenden
completamente el concepto.
● Sobre el de reutilizar código 128 alumnos, opinaron que comprenden completamente el concepto.
● Sobre el de modular el código en funciones, fueron 100 opiones para la escala de evaluación 3.
Por otra parte, para la sección de Bondades de Scratch, se obtuvieron las siguientes opiniones:
● Se obtuvieron 107 opiniones a favor de que este software permite desarrollar su capacidad creativa.
● Fueron 166 alumnos quienes opinaron que es interesante compartir de forma colaborativa los trabajos
de Scratch.
● 134 alumnos opinaron que este software si les ayudará a aprender a programar, Imagen 5.
58
Imagen 5. Reactivo A.14 ¿Crees que el software Scratch te ayudaría a aprender a programar?
De los participantes son 172 lo que representa el 47% alumnos quienes obtuvieron una calificación menor o
igual que 3 y que se les impartirá un curso de nivelación, pero con Scratch, quienes al final se les aplicará otro
test diferente para evaluarlos.
5 Conclusiones y trabajos futuros
Se revisaron diferentes fuentes de información, que permitieron a los autores conocer sobre distintas formas
de medir el pensamiento computacional, identificando similitudes entre ellas. Sin embargo, se diseñó un
instrumento propio, adaptándolo al programa de estudios de las asignaturas de Programación y de
Programación Aplicada a la Ingeniería.
Entre los resultados obtenidos más relevantes se encontró que la mayoría de los alumnos consideran que
Scratch les ayudará a aprender a programar, de forma creativa y colaborativa. Se identificó que el 65% de los
estudiantes no han tomado otro curso de programación, y sólo el 47 % de los participantes obtuvo una
calificación menor o igual a 3 en test de Scratch. De los 172 alumnos que van a tomar el curso 76 de ellos son
alumnos de Informática o Computación. De los 365 participantes 68 obtuvieron una calificación de 5, de los
cuales 12 son de Civil, 10 de Biomédica, 10 de Comunicaciones y Electrónica, 13 de Computación y 23 de
Informática.
Se diseñará un curso de Scratch como una opción diferente para reforzar el aprendizaje del paradigma de
programación estructurada, que, aunque no sea con Lenguaje C, si será con una herramienta diferente y que
posiblemente sea bien aceptada por los estudiantes. El curso se impartirá a quienes obtengan un puntaje menor
a cuatro.
Al finalizar el curso se aplicará un nuevo instrumento de evaluación para medir el pensamiento
computacional posterior al curso de Scratch.
Como parte de los trabajos futuros que se realizarán para dar seguimiento a esta investigación se realizará
un análisis exhaustivo para comprobar que la implementación del curso de Scratch y su impartición a los
estudiantes que lo requieren ha hecho que mejoren sus habilidades en programación.
Referencias
[1] Varela, C., Rebollar, C., García, O., Bravo, E., Bilbao, J. (2019). Skills in computational thinking of engineering students of the first
school year. Heliyon, Volume 5, Issue 11, ISSN 2405-8440. Consultado el 08 de agosto de 2021. En:
https://doi.org/10.1016/j.heliyon.2019.e02820.
(https://www.sciencedirect.com/science/article/pii/S2405844019364801)
[2] Pérez, A., Arranz, H. (2017). Evaluación del Pensamiento Computacional en Educación. Dialnet. Consultado: 08 de agosto de 2021.
En: https://dialnet.unirioja.es/servlet/articulo?codigo=6484848
[3] Pérez, J. (2021). Percepción de estudiantes universitarios sobre el pensamiento computacional. Universidad de Los Andes; Venezuela.
Consultado: 08 de agosto de 2021. En: https://polipapers.upv.es/index.php/REDU/article/view/15491
[4] Rojas, A., García, F. (2020). Evaluación de habilidades del pensamiento computacional para predecir el aprendizaje y retención de
estudiantes en la asignatura de programación de computadoras en educación superior. Dialnet. Consultado: el 08 de agosto de 2021.
En: https://dialnet.unirioja.es/servlet/articulo?codigo=7324946
[5] Brennan, K, y Resnick, M. (2012). Nuevas propuestas para evaluar el Pensamiento Computacional. Eduteka. Consultado: el: 06 de
abril de 2021. En: http://eduteka.icesi.edu.co/articulos/EvaluarPensamientoComputacional
[6] Scratch. Consultado el: 06 de abril de 2021. En: https://scratch.mit.edu/
[7 ] Educación 3.0. No sólo Scratch: 15 lenguajes y plataformas para enseñar programación en Primaria y Secundaria. Consultado: el 07
de mayo de 2021. En: https://www.educaciontrespuntocero.com/recursos/programacion/lenguajes-programacion-informatica-para-
primaria-secundaria/
[8] Bebras. Consultado en: 08 de agosto de 2021. En: https://www.bebras.org/
[9] EcuRed. Programación Estructurada. Consultado: 07 de mayo de 2021. En: https://www.ecured.cu/Programacion_estructurada
[10] Barberá, E. (2008). Aprender e-learning. Barcelona: Paidós.
[11] BASOGAIN, Xabier, OLABE, Miguel, OLABE, Juan (2015). Pensamiento Computacional a través de la Programación: Paradigma
de Aprendizaje. En RED Revista de Educación a Distancia <https://www.um.es/ead/red/46/Basogain.pdf> Consulta: 20 de marzo de
2021.
[12] Cearreta, l. (2015). Scratch como recurso didáctico para el desarrollo del pensamiento computacional de los alumnos de Secundaria
y Bachillerato en la asignatura de Informática y como recurso transversal en el resto de las asignaturas (Trabajo Final de Máster).
Universidad Internacional de la Rioja, Zumaia (Guipuzcoa).
59
III. Cómputo en la
Nube
60
Monitoreo de la actividad física o reposo de pacientes mediante el uso de
sensores y servicios en la nube
Área de conocimiento: cómputo móvil
Irma Alejandra Amaya Patrón1
; Nicolás Forero Segovia2
y Carlos Alberto Vera Betancourt 2
1
Universidad Autonóma de Baja California, Facultad de Ingeniería, Arquitectura y Diseño, Campus
Ensenada, Carretera Transpeninsular Ensenada-Tijuana número 3917, Colonia Playitas, Ensenada, Baja
California, C.P. 22860. México
iamaya@uabc.edu.mx
2
Universidad Autónoma de Manizalez, Antigua Estación del Ferrocarril, Manizales, Caldas, Colombia
nicolas.foreros@autonoma.edu.co, carlos.verab@autonoma.edu.co
Resumen. Las aplicaciones móviles de salud o mHealth, permiten el uso y manejo de distintos elementos
disponibles en dispositivos móviles tales como: teléfonos inteligentes, tabletas, o tecnología vestible. Los
sensores son uno de estos elementos y nuestro caso particular de interés es el acelerómetro. El
acelerómetro nos permite determinar el desplazamiento de un objeto de un lugar a otro. Para pacientes en
cuidado postoperatorio es importante conocer si han estado en reposo o movimiento. Los métodos de esta
propuesta incluyen: el análisis y definición de estrategias de persuasión para promover un cambio en el
comportamiento del usuario, así como la definición de los servicios en la nube para el envío de
notificaciones al usuario. Como resultado, se propone una aplicación móvil persuasiva para dar
seguimiento a la actividad física o reposo del paciente después de una cirugía y así emitir recomendaciones
y recompensas sobre sus metas/objetivos relacionados con su recuperación.
Palabras clave: cuidados postoperatorios, cómputo móvil, cómputo en la nube.
Abstract. The mobile health or mHealth applications allow the use and management of different elements
available on mobile devices such as: smartphones, tables or wearable technology. Sensors are one of these
elements and in our particular case of interest is the accelerometer. The accelerometer allows us to
determine the displacement of an object from one place to another. In patients in postoperative care it is
very important to know if they have been rest or movement since they can affect their recovery time. To
support the monitoring of postoperative care, a persuasive mobile application is proposed to monitor the
patient’s physical activity or rest after surgery to issue recommendations and rewards on their recovery
goals/objectives. This document presents the proposed architecture, user interface and persuasion
techniques defined for the realization of this project.
Keywords: postoperative care, mobile computing, cloud computing.
1 Introducción
Gracias al constante incremento en el uso de teléfonos inteligentes, los cuales hacen posible el
compartir aplicaciones móviles y la interacción entre miles de personas en el mundo, se han
desarrollado muchas aplicaciones relacionadas con la salud que permiten controlar afecciones de
salud leves o crónicas, apoyar en la adopción de un estilo de vida saludable o promover
comportamientos saludables [1].
Estas aplicaciones móviles de salud o mHealth se definen como: aquellas aplicaciones de salud que
se ejecutan en plataformas móviles, como teléfonos inteligentes y tabletas, y se utilizan para gestionar
el bienestar y la salud. Las aplicaciones mHealth se caracterizan por la naturaleza iterativa de las
intervenciones e interacciones frecuentes del usuario, esto con la finalidad de que ocurra un cambio
en el comportamiento del usuario mediante la adopción de estrategias persuasivas [2, 3].
Según Oinas-Kukkonen [4] un sistema persuasivo está definido como un sistema de información
61
diseñado para reforzar, cambiar o moldear actitudes, comportamientos o ambos sin el uso de la
coerción ni el engaño. Para desarrollar un sistema persuasivo se cuentan con tres pasos, en los que
encontramos: comprender los problemas claves del sistema, análisis del contexto de persuasión y el
diseño de sus características. En este último paso se cuentan con diferentes estrategias de persuasión
categorizadas que pueden ser implementadas en el sistema a desarrollar, estas se pueden visualizar
en la tabla 1 adaptada de [5].
Apoyo a tareas
primarias
Apoyo al diálogo Apoyo a la
credibilidad
Apoyo a lo social
Reducción Felicitaciones Integridad Aprendizaje social
Tunelización Recompensas Experticia Comparación
Hecho a la medida Recordatorios Credibilidad
superficial
Influencia
Personalización Sugerencias Sentimiento del
mundo real
Facilitación
Automonitoreo Similitudes Autoridad Cooperación
Simulación Agrado Aprobación de
terceros
Competencia
Ensayo Roles sociales Verificabilidad Reconocimiento
Tabla 1. Estrategias de diseño para sistemas persuasivos
Existen estrategias que han presentado mejor o menor adherencia al momento de persuadir al usuario
[1, 3, 6], es por eso que al momento de desarrollar una intervención persuasiva se puede hacer uso
de las estrategias que se deseen. Además, no hay una combinación clave de estrategias que nos
permitan persuadir efectivamente al usuario [1]. Mediante el uso de sensores nos podemos apoyar en
el monitoreo del usuario para así emitir recomendaciones de persuasión.
Los acelerómetros son los sensores más utilizados y conocidos que miden la aceleración de objetos en
movimiento a lo largo de ejes de referencia y proporcionan recuentos básicos de pasos y actividad utilizados
como una evaluación cuantitativa de la actividad física [7]. Mediante dichos sensores, podemos cuantificar la
actividad física o el reposo de los pacientes en momentos de eventos médicos. Por tanto, en este trabajo se hará
uso de los sensores de teléfonos inteligentes para la obtención de datos relevantes [8] asociados al cuidado
postoperatorio de un paciente.
2 Estado del arte
Después de una cirugía existe la posibilidad de que se presenten secuelas no deseadas como dolor y
diversas complicaciones [9], es por esto que el paciente debe tener una serie de cuidados para
asegurar su recuperación como lo es un programa de rehabilitación [10] dentro del cual se puede
promover tanto la actividad física para la recuperación [11] así como la inmovilización o descanso
[12]. En la tabla 2, podemos observar los trabajos de distintos autores relacionado con el diseño y
desarrollo de aplicaciones móviles persuasivas para pacientes con cuidados postoperatorios.
62
Autor(es) Uso de
acelerómetro
Cuidados
postoperatorios
Autocuidado Medición
de reposo
Medición
de
actividad
física
Diseño
persuasivo
mHealth
Van der Meij et
al. [13]
X X X X
Panda et al. [8] X X X
Furtado et al.
[14]
X X X
Ghomrawi et
al.[15]
X X X
Preeti et al. [16] X
Kelders et al.
[17]
X
Alpay et al. [5] X X
Oyebode et al.
[1]
X X
Asbjørnsen et al.
[6]
X X
Nahum-Shani et
al. [18]
X
Klasnja et al.
[19]
X X
Rajanna et al.
[10]
X X
Lo et al. [20] X X
Tabla 2. Estado del arte sobre aplicaciones y uso de sensores para el cuidado postoperatorio del paciente
Después de la revisión de la literatura donde se centró en el monitoreo del paciente y basándose en
los conceptos clave acelerómetro, mHealth, diseño persuasivo, cuidados postoperatorios, sensores,
autocuidados, medición reposo y medición actividad física, se vio reflejado que no existe un trabajo
que relacione todos los conceptos mencionados, tal como puede observarse en la tabla 2.
Por esta razón, el presente trabajo permitirá el desarrollo de un prototipo que cuente con todas las
características mencionadas tanto en el monitoreo y sensores hacia el paciente como en la
intervención persuasiva hacia este.
3 Metodología
El desarrollo de este trabajo tiene como fin la construcción de una aplicación móvil que mediante sensores
recopile información sobre la actividad física del usuario para monitorear y proveer retroalimentación en
intervenciones de salud para pacientes con cuidados postoperatorios. Las actividades que se realizan en el
presente trabajo incluyen:
 Revisión de la literatura
 Selección de las estrategias de monitoreo al paciente
 Selección de las estrategias de persuasión
 Identificación del funcionamiento y características básicas del prototipo
 Selección de la arquitectura del sistema
 Elaboración de la interfaz de usuario del prototipo
 Construcción del prototipo
 Validación y verificación
Como parte de la revisión de literatura, se dará lectura a diversos artículos científicos acerca de las
intervenciones, técnicas y/o estrategias de monitoreo, estrategias de persuasión, y sobre el diseño de
sistemas persuasivos para el cuidado de pacientes postoperatorios mediante una aplicación móvil.
Durante la selección de estrategias de monitoreo al paciente, así como la selección de estrategias de
persuasión se realizará la búsqueda de las estrategias monitoreo y estrategias para generar un cambio
de comportamiento (o mantenerlo) [1, 4] en el paciente haciendo uso de la aplicación. En base a
63
dicha información se seleccionará(n) la(s) estrategia(s) que se considere(n) más adecuada(s) para el
proyecto. Considerando así los requerimientos funcionales y no funcionales del sistema a desarrollar,
así como las tecnologías a utilizar para diseñar y desarrollar el prototipo. Para finalmente, revisar y
comprobar que el prototipo implementado cumple con el funcionamiento para el cual fue diseñado.
Durante el desarrollo de este trabajo se considera la implementación de un prototipo para una
aplicación móvil centrado en el usuario donde se facilite el monitoreo y retroalimentación al usuario
de una forma natural y con la menor cantidad de acciones posibles, propiciando así mejoría en la
experiencia del usuario a través de componentes visualmente ricos e interactivos, fáciles de utilizar
e intuitivos.
4 Propuesta de trabajo
Después de una cirugía existe la posibilidad de que se presenten secuelas no deseadas como dolor y
diversas complicaciones [9], es por esto que el paciente debe tener una serie de cuidados para
asegurar su recuperación como lo es un programa de rehabilitación [10] dentro del cual se puede
promover tanto la actividad física para la recuperación [11] así como la inmovilización o descanso
[12].
La propuesta de este trabajo consiste en el desarrollo de una app móvil para poder enviar
notificaciones al usuario así como poder hacer uso de los sensores del propio dispositivo para
pacientes que se encuentren en cuidados postoperatorios, esto con la finalidad de tener intervenciones
de salud derivados de la falta de actividad y/o reposo durante su convalecencia.
Para lograrlo, se ha definido la arquitectura del sistema, así como la selección de estrategias a utilizar
y el desarrollo del prototipo de la interfaz para la aplicación móvil.
4.1 Arquitectura
La arquitectura del sistema comprende las distintas tecnologías a utilizar para el desarrollo de este
trabajo.
64
Fig. 1. Arquitectura del sistema
En la Fig. 1 puede observarse que se desarrollará una aplicación móvil mediante React Native para
crear aplicaciones para Android y iOS. Dicha aplicación hará uso de los sensores del teléfono
inteligente, en este caso con el acelerómetro para obtener lectura de datos sobre el desplazamiento o
movimiento del usuario. A través de una API (Application Programming Interface) de transferencia
de estado representacional (REST – Representational State Transfer) se realizará la comunicación
con el microservicio de notificaciones PUSH, el cual será el encargado de enviar las alertas, avisos
o mensajes de recompensas al dispositivo del usuario. Por último, el manejo de la información se
realizará empleando el servicio en la nube de Firebase. Con esta arquitectura se espera poder dar
soporte a la gran cantidad de datos que puedan recopilarse a través del monitoreo utilizando sensores.
4.2 Definición de estrategias
Para poder realizar las intervenciones de salud, se analizaron las distintas estrategias de persuasión
(ver Tabla 1), de donde se seleccionaron las siguientes dado su contribución en el desarrollo de este
proyecto:
- El monitoreo del estado del paciente, que como parte de las tareas de apoyo primario se
recomienda aparezca siempre dado que es una de las principales características con las que
debe contar un sistema persuasivo.
- El establecimiento de metas, ya sean puestas por el mismo sistema o por el usuario, dado que
estudios muestran una mayor adherencia con las metas personalizadas pero establecidas por
el sistema.
- El acceso continúo a recordatorios, preferible a recordatorios en periodos de tiempo
establecidos o múltiples recordatorios los cuales puedan abrumar al usuario con dichas
notificaciones.
- La ganancia de recompensas virtuales que permitan al usuario sentir que el realizar las
acciones y cumplir las metas rinden frutos.
- Halagos virtuales que se realicen al usuario según se cumplan las metas, motivando de esta
forma al usuario a seguir mejorando los cuidados postoperatorios.
65
- La muestra de que la información que provee el sistema es de fuentes confiables es
importante para la adherencia en el refuerzo o cambio de comportamiento o persuasión del
usuario. Si el médico emite la recomendación de reposo o actividad se puede considerar
como una meta a cumplir de una fuente confiable.
4.3 Prototipo de la interfaz
Para el diseño de la interfaz de usuario, se siguió el principio de diseño centrado en el usuario, donde también
se busca mejorar la experiencia del usuario, para generar una aplicación de fácil uso. En la Fig. 2 se muestra
las distintas pantallas para el sistema.
Fig. 2. Diseño del prototipo de interfaz
La Fig. 2.a. muestra la información que será presentada al usuario de forma semanal o por día
respecto a su actividad o reposo. En la Fig. 2.b. se muestra las felicitaciones que se darán al usuario
por alcanzar su meta diaria. Por último, en la figura 2.c. se muestra el listado de notificaciones, donde
inicialmente se dará un aviso con el estado actual para cumplir la meta diaria, adicionalmente, se
mostrará el listado de todas las notificaciones recibidas para el usuario elija alguna acción (leer o
borrar) sobre esta.
5 Resultados y Discusión
Este es un trabajo en proceso, por lo que al término de esta propuesta se espera contar con una
aplicación móvil que permita la recopilación de información o datos sobre las acciones o
movimientos del paciente de acuerdo a los cuidados postoperatorios indicados en su expediente
clínico. Esto facilitará el acceso a la información tanto para el paciente como para el médico, quien
podrá acceder a información en tiempo real sobre si el paciente se mantuvo en reposo o en caso
contrario en movimiento.
66
Monitorear el estado del paciente mediante el desplazamiento físico detectado por la aplicación;
establecer metas sobre la actividad física o reposo que debe guardar el paciente; acceder de forma
continua a los recordatorios sobre los cuidados postoperatorios indicados por el médico; recompensar
al paciente en caso de que cumpla sus metas; felicitar o halagar al paciente si tiene un buen
comportamiento y está cumpliendo con las indicaciones médicas; interactuar con fuentes confiables
como lo es el expediente clínico personal del paciente para obtener información relevante a su salud,
son las estrategias de persuasión definidas para ser empleadas en este trabajo.
Con el establecimiento de metas bien definidas donde se contabilice el tiempo de reposo/descanso
indicado vs el logrado, felicitaciones al paciente por cumplir con sus indicaciones, notificar al médico
en caso de que las acciones del usuario sean adversas a las indicadas, se espera lograr un cambio de
comportamiento en el paciente para que cumpla con sus cuidados postoperatorios.
6 Conclusiones y trabajo futuro
De acuerdo a las actividades realizadas en este trabajo, se cuenta con el diseño de un prototipo
mHealth centrado en el usuario para pacientes en cuidados postoperatorios. El uso de elementos
como el sensor del acelerómetro con el que ya cuentan los teléfonos inteligentes y de tecnologías
que permiten el desarrollo de prototipos móviles multiplataformas (React Native), así como la
incorporación de una API Rest, microservicios de notificaciones PUSH y servicios en la nube
agilizan el desarrollo de aplicaciones móviles. Además, las interfaces, flujos y experiencias de
usuario presentan características persuasivas que motivan a los pacientes en cuidados
postoperatorios a mantener un buen comportamiento en la atención de su salud después de una
cirugía. Para lograrlo, se realizará el monitoreo del estado del paciente, el establecimiento de
metas, el acceso continuo a recordatorios, la ganancia de recompensas y halagos virtuales según
se cumplan las metas. De esta manera, se podrá mejorar la recuperación del paciente y disminuir
el tiempo para que pueda retomar sus actividades diarias.
Como trabajo futuro, se considera la incorporación de otro tipo de sensores ajenos al teléfono
inteligente, así como la integración de las notas médicas provenientes del expediente electrónico
del paciente donde el especialista de salud indique los cuidados que debe tener el paciente en
relación al reposo o actividad física posteriores a su operación.
Referencias
[1] O. Oyebode, C. Ndulue, M. Alhasani, y R. Orji, «Persuasive Mobile Apps for Health and Wellness: A Comparative
Systematic Review», abr. 2020, pp. 163-181. doi: 10.1007/978-3-030-45712-9_13.
[2] R. Tarricone, F. Petracca, O. Ciani, y M. Cucciniello, «Distinguishing features in the assessment of mHealth apps»,
Expert Rev. Pharmacoecon. Outcomes Res., vol. 0, n.o 0, pp. 1-6, mar. 2021, doi: 10.1080/14737167.2021.1891883.
[3] K. Sporrel, N. Nibbeling, S. Wang, D. Ettema, y M. Simons, «Unraveling Mobile Health Exercise Interventions for
Adults: Scoping Review on the Implementations and Designs of Persuasive Strategies», JMIR MHealth UHealth, vol.
9, n.o 1, p. e16282, ene. 2021, doi: 10.2196/16282.
[4] H. Oinas-Kukkonen y M. Harjumaa, «Persuasive Systems Design: Key Issues, Process Model, and System Features»,
Commun. Assoc. Inf. Syst., vol. 24, n.o 1, mar. 2009, doi: 10.17705/1CAIS.02428.
[5] L. Alpay, R. Doms, y H. Bijwaard, «Embedding persuasive design for self-health management systems in Dutch
healthcare informatics education: Application of a theory-based method», Health Informatics J., vol. 25, no. 4, pp.
1631-1646, dic. 2019, doi: 10.1177/1460458218796642.
[6] R. A. Asbjørnsen et al., «Identifying Persuasive Design Principles and Behavior Change Techniques Supporting End
User Values and Needs in eHealth Interventions for Long-Term Weight Loss Maintenance: Qualitative Study», J. Med.
Internet Res., vol. 22, n.o 11, p. e22598, nov. 2020, doi: 10.2196/22598.
67
[7] S. P. Predeep Kumar y E. Babu Raj, «Reliable Smartphone Based Wireless Healthcare Monitoring System For Post
Operative Heart Surgery Patients On Driving Conditions», Biomedical and Pharmacology Journal, vol. 8, no. 2, pp.
1093-1102, nov. 2015, doi: 10.13005/bpj/863.
[8] N. Panda et al., «Using Smartphones to Capture Novel Recovery Metrics After Cancer Surgery», JAMA Surg., vol.
155, n.o 2, pp. 123-129, feb. 2020, doi: 10.1001/jamasurg.2019.4702.
[9] H. Kehlet, «Multimodal approach to control postoperative pathophysiology and rehabilitation», Br. J. Anaesth., vol. 78,
n.o 5, pp. 606-617, may 1997, doi: 10.1093/bja/78.5.606.
[10] V. Rajanna et al., «KinoHaptics: An Automated, Wearable, Haptic Assisted, Physio-therapeutic System for Post-
surgery Rehabilitation and Self-care», J. Med. Syst., vol. 40, n.o 3, p. 60, mar. 2016, doi: 10.1007/s10916-015-0391-3.
[11] A. Abeles, R. M. Kwasnicki, C. Pettengell, J. Murphy, y A. Darzi, «The relationship between physical activity and
post-operative length of hospital stay: A systematic review», Int. J. Surg., vol. 44, pp. 295-302, ago. 2017, doi:
10.1016/j.ijsu.2017.06.085.
[12] Y. Falck-Ytter et al., «Prevention of VTE in Orthopedic Surgery Patients: Antithrombotic Therapy and Prevention of
Thrombosis, 9th ed: American College of Chest Physicians Evidence-Based Clinical Practice Guidelines», CHEST,
vol. 141, n.o 2, pp. e278S-e325S, feb. 2012, doi: 10.1378/chest.11-2404.
[13] E. van der Meij et al., «Assessing pre- and postoperative activity levels with an accelerometer: a proof of concept
study», BMC Surg., vol. 17, n.o 1, p. 56, may 2017, doi: 10.1186/s12893-017-0223-0.
[14] S. Furtado, A. Godfrey, S. Del Din, L. Rochester, y C. Gerrand, «Are Accelerometer-based Functional Outcome
Assessments Feasible and Valid After Treatment for Lower Extremity Sarcomas?», Clin. Orthop., vol. 478, n.o 3, pp.
482-503, mar. 2020, doi: 10.1097/CORR.0000000000000883.
[15] H. M. Ghomrawi et al., «Using accelerometers to characterize recovery after surgery in children», J. Pediatr. Surg.,
vol. 53, n.o 8, pp. 1600-1605, ago. 2018, doi: 10.1016/j.jpedsurg.2017.09.016.
[16] M. Preeti, Koushik Guha, K. L. Baishnab, K. Dusarlapudi, y K. Narasimha Raju, «Low frequency MEMS
accelerometers in health monitoring – A review based on material and design aspects», Mater. Today Proc., vol. 18,
pp. 2152-2157, ene. 2019, doi: 10.1016/j.matpr.2019.06.658.
[17] S. M. Kelders, R. N. Kok, H. C. Ossebaard, y J. E. V. Gemert-Pijnen, «Persuasive System Design Does Matter: A
Systematic Review of Adherence to Web-Based Interventions», J. Med. Internet Res., vol. 14, n.o 6, p. e2104, nov.
2012, doi: 10.2196/jmir.2104
[18] I. Nahum-Shani et al., «Just-in-Time Adaptive Interventions (JITAIs) in Mobile Health: Key Components and Design
Principles for Ongoing Health Behavior Support», Ann. Behav. Med., vol. 52, n.o 6, pp. 446-462, may 2018, doi:
10.1007/s12160-016-9830-8.
[19] P. Klasnja, D. E. Rosenberg, J. Zhou, J. Anau, A. Gupta, y D. E. Arterburn, «A quality-improvement optimization
pilot of BariFit, a mobile health intervention to promote physical activity after bariatric surgery», Transl. Behav. Med.,
vol. 11, n.o 2, pp. 530-539, feb. 2021, doi: 10.1093/tbm/ibaa040.
[20] B. Lo, L. Atallah, U. Aziz, M. ElHew, A. Darzi, y G.-Z. Yang, «Real-Time Pervasive Monitoring for Postoperative
Care», ene. 2007, vol. 13, pp. 122-127. doi: 10.1007/978-3-540-70994-7_21.
68
IV. Cómputo Móvil
69
Asistente GC: Asistente Colaborativo Móvil para la Gestión de
Congresos o Ponencias
Brigan Perez-Luna 1
, Luz A. Sánchez-Gálvez 1
, Mario Anzures-García, Mariano Larios-Gómez and
Juventino Montiel 2
1
Facultad de Ciencias de la Computación, Benemérita Universidad Autónoma de Puebla. Ciudad
Universitaria, 14 sur esquina Boulevard Valsequillo, 72570, Puebla-México.
brigan.perez@buap.com.mx, sanchez.galvez@correo.buap.mx, mario.anzures@correo.buap.mx,
mlarios77@gmail.com
2
Facultad de Ciencias Básicas, Ingeniería y Tecnología, Universidad Autónoma de Tlaxcala-México
jmontiel2005@yahoo.com.mx
Abstract. En las instituciones de educación superior se realizan con frecuencia ponencias, conferencias o
congresos para permitir el intercambio de ideas y trabajo conjunto sobre una disciplina en particular. Sin
embargo, la realization este tipo de eventos conlleva realizar, principalmente, tres procesos, que son
bastantes complejos. Gestión de artículos, Logística del funcionamiento de dicho evento, y Realización
del mismo. Para los dos primeros procesos ya existen diversas herramientas, tales como los sistemas de
gestión de conferencia (easychar, openconf, etc.) y methodologies para manejar la logística de esta clase
de eventos. Sin embargo, no existe una herramienta adecuada para el tercer proceso. Por tanto, en este
artículo se plantea un asistente colaborativo móvil para la gestión de conferencias, que permita la
comunicación, colaboración y coordinación de los diferentes participantes de una conferencia, de tal
manera que está se lleve a cabo sin contratiempos y resolviendo los inconvenientes de la mejor manera
posible.
Keywords: Asistente, Gestión de Congresos, Aplicación Colaborativa, Aplicación Móvil, Participante.
1 Introducción
En las instituciones de educación superior se realizan con frecuencia ponencias, conferencias o congresos para
permitir el intercambio de ideas y trabajo conjunto sobre una disciplina en particular. Sin embargo, la
realización de este tipo de eventos conlleva realizar, principalmente, tres procesos, bastantes complejos: La
gestión de artículos, desde la emisión de la convocatoria del evento, el envío, revisión de éstos; así como la
publicación de aceptados y el reenvío de los artículos modificados de acuerdo a las sugerencias de los revisores.
La que regirá el funcionamiento de dicho evento. La realización del mismo, que requiere la organización y
coordinación del personal técnico y de apoyo al momento de iniciar una conferencia o inclusive antes de
comenzar, dado que todo el control de las conferencias se lleva a cabo en papel. Así como una buena
comunicación, para reacomodar las ponencias, en caso de retrasos de los ponentes, inclusive, el poder cancelar
ciertas conferencias por muchas razones técnicas y de coordinación, y si es necesario reagendarlas; atendiendo
así con tiempo suficiente los problemas que se presenten, como los antes mencionados.
Para los dos primeros procesos ya existen diversas herramientas, tales como los sistemas de gestión
de conferencia (easychar, openconf, etc.) y metodologías para manejar la logística de esta clase de
eventos. Sin embargo, no existe una herramienta adecuada para el tercer proceso. Por tanto, se plantea
el desarrollo de un asistente colaborativo móvil para gestionar ponencias, que se ha nombrado
Asistente GC, y que contrarrestara este tipo de inconvenientes y proporcionara una solución rápida
y adecuada al coordinador, moderador, ponente y personal de apoyo de una conferencia.
El documento se encuentra organizado de la siguiente manera: Sección 2 presenta el estado del arte
que comprende las aplicaciones colaborativas y una descripción de aquellas utilizadas en el tercer
proceso. Sección 3 describe el desarrollo del asistente colaborativo móvil para la gestión de congresos
o ponencias. Sección 4 explica las conclusiones y el trabajo futuro.
70
2 Estado del Arte
Un groupware o aplicación colaborativa soporta a un grupo} de personas alcanzar un objetivo
común, mediante una interfaz de un entorno compartido [1, 2, 3, 4]. De tal manera, que el trabajo en
grupo se realiza en un espacio de trabajo compartido (entorno) donde un conjunto de individuos,
geográficamente distribuidos que comparten un interés común, se organizan, comunican, colaboran
y coordinan para realizar tareas y alcanzar un objetivo común [4, 5].
En estos tiempos de emergencia sanitaria, las aplicaciones colaborativas se volvieron indispensables
en empresas, organizaciones e instituciones de cualquier ámbito, obviamente, se encuentra incluido,
el educativo; ya que al estar cada uno en su casa resulta más sencillo, utilizar y/o implementar una
aplicación colaborativa. Existen diversas aplicaciones colaborativas, como: Google Drive [6] ofrece
el servicio de almacenamiento de archivos y sincronización de estos con otros dispositivos;
WhatsApp [7] sistema de mensajería instantánea, que permite mantener conversaciones en tiempo
real y también ofrece videollamada, estado, lista de difusión y compartir archivos; Dropbox [8]
servicio multiplataforma de alojamiento de archivos en la nube, para almacenar, compartir y
sincronizar tanto archivos como carpetas en línea entre computadoras, tabletas y móviles; Facebook
[9] red social, que, dentro de sus distintas funcionalidades, ofrece la posibilidad de hacer
publicaciones, compartir archivos, enviar mensajes, crear grupos; Microsoft Kaizala [10] aplicación
de software de gestión de trabajo y mensajería que permite colaborar con otros, con la capacidad de
enviar y recibir mensajes instantáneos, coordinar tareas y usar herramientas especiales para
interactuar con su equipo; Microsoft Teams [11] software cuyo principal objetivo es la colaboración
en equipo, siendo su primordial función la mensajería para comunicarse y colaborar con miembros
de la propia organización y fuera de ella; Trello [12] plataforma para el desarrollo de proyectos que
simplifica la colaboración y sirve para lo que uno quiera desarrollar, organizar o coordinar; Skype
[13] software multiplataforma que permite comunicaciones de texto, voz y video sobre internet; y
ZOOM [14] ofrece videoconferencias en tiempo real, que permite servicio de salas de
videoconferencias para realizar diversas tareas de forma colaborativa: edición de documentos y
pizarra de anotaciones.
Se pueden utilizar dos o tres de las aplicaciones colaborativas para llevar a cabo el proceso de
realización de la conferencia o ponencia, sin embargo, esto complica la gestión de dicho proceso. Por
tanto, en este artículo se propone un asistente colaborativo móvil para realizar congresos o ponencias,
denominado Asistente GC.
3 Desarrollo
El asistente GC se desarrolla mediante un modelo evolutivo iterativo, que permite adaptarse a cambios en los
requisitos y/o añadir nuevos en cada iteración que se vaya realizando. En cada una se lleva a cabo análisis de
requisitos, diseño, codificación y pruebas. Partiendo de este modelo, para la aplicación Asistente GC se definen
cuatro tipos de usuario con diferentes funciones específicas para que puedan cumplir con sus tareas
encomendadas en dicho asistente:
 Coordinador. Es el que maneja la aplicación teniendo acceso a todas las funcionalidades.
 Moderador. Es quien coordina las sesiones y el personal de apoyo que le hayan asignado.
 Ponente. Es quien dará las conferencias a los asistentes.
 Personal de apoyo. Es el personal que apoyará en logística y en necesidades técnicas al resto
de usuarios.
En la Fig. 1 se presenta el diagrama de entidad relación con las principales tablas: Usuario, Ponente,
Moderador, Personal de Apoyo, Sesión, Ponencia y Lugar. A partir de este diagrama se genera la
base de datos (véase la Fig. 2) en Firebase, que ayuda a desarrollar apps de alta calidad con rapidez,
71
además proporciona el servicio Cloud Firestore, que permite trabajar de manera remota con la
interfaz de usuario, de tal manera que se pueden hacer cambios en la nube y disponer de los datos
correspondientes
Partiendo de lo anterior, se implementó el Asistente GC; creando el logo e icono de la aplicación
móvil, para proseguir con la pantalla de carga (splashscreen), que durará 10segundos, terminando
dicho tiempo la aplicación pasará a la Fig. 3, inicio de sesión. En la cual el usuario puede registrarse,
sino lo ha hecho, o entrar al asistente escribiendo su correo electrónico y contraseña. Todos los
formularios del asistente son validados para asegurar la robustez del mismo, de tal manera que, ante
cualquier entrada de información inesperada, la aplicación responda correctamente y no interrumpa
su funcionamiento.
Fig. 1. Modelo relacional del Asistente GC.
Fig. 2. Base de datos del Asistente GC en Firebase.
Cuando iniciamos sesión se accede al inicio del Asistente GC, donde se presentan las distintas tareas
que se pueden realizar (véase la Fig. 3), entrando como administrador. Cabe destacar que los botones
que serán visibles en la pantalla de inicio dependen del tipo de usuario, ya que cada uno ejecuta
diferentes actividades de acuerdo a los permisos que tenga asignados. En el caso del administrador
se tienen las siguientes:
72
Fig. 3. Inicio de sesión y pantalla de inicio del Asistente GC.
 Lista de Ponentes. Presenta todos los ponentes que participan en el congreso que se está
realizando (véase la Fig. 4), a través de tarjetas que sirven para mostrar los datos
almacenamos en la nube. Además, se explica de manera breve en que consiste la ponencia
que expondrán.
 Conferencias. Lista las ponencias que se llevarán a cabo ese día, indicando nombre de la
misma, de los autores y de la institución de donde proceden los autores. (véase la Fig. 5).
Cabe mencionar que se han utilizado tablas dinámicas, por ende, el tamaño puede variar
dependiendo de la cantidad de información que contenga cada una.
 Administrar Ponencias. Gestiona las ponencias permitiendo agregar, modificar, consultar
y eliminarlas, así como re-agendar las mismas según sean las necesidades del congreso.
 Sesiones. En los congresos o ponencias las exposiciones se agrupan por temas dando lugar a
las denominadas sesiones, a las cuales se les asigna un lugar y horario de exposición.
 Moderadores. Personas responsables de presentar a los ponentes, indicarles el tiempo que
tienen para su presentación, moderar la ronda de preguntas y apoyar en tu lo que necesite el
ponente, esto con el respaldo del personal de apoyo.
 Mensajes. Espacio que permite la comunicación directa entre dos personas o un grupo, que
esté involucrado en algún incidente o problemática que se haya presentado en el desarrollo
de la conferencia. De tal manera, que se resuelva lo más pronto posible y el evento pueda
continuar su desarrollo normal, disminuyendo los contratiempos que puedan presentarse.
73
 Personal de Apoyo. Personas que proporcionan asistencia a los ponentes, moderadores y
coordinador, para que todo lo que éstos necesiten lo tengan a la mano y funcionado
adecuadamente, o en su defecto ayudar a solucionar algún problema que se presente, ya sea
resolviendo el problema, llamando a un experto o trayendo y cambiando el recurso que esté
fallando. Además de apoyar y asistir en todo momento a los ponentes, ya que muchos de
ellos no son del lugar en donde se realiza dicho evento.
Fig. 4. Lista de Ponentes del Asistente GC.
Fig. 4. Conferencias del Asistente GC.
74
5 Conclusiones and Trabajo Futuro
En este artículo, un modelo evolutivo iterativo se siguió para desarrollar el Asistente Colaborativo
Móvil para la Gestión de Congresos o Ponencias, que contempló cuatro usuarios Coordinador,
Moderador, Ponente y Personal de Apoyo. Los cuales son quienes participan en la realización de
la ponencia o congreso, permitiéndoles comunicarse, colaborar y coordinarse para que este evento
se ejecuta de la mejor manera. El diseño de las interfaces fue minimalista, pero consiguiendo
proporcionar usabilidad e intuición en la interacción con éstas y entre los mismos usuarios. El uso
del modelo permitió ir mejorando el asistente en cada iteración. Además. Los servicios y el propio
Firebase facilitó la interacción de las interfaces de usuario con la información, así como la
modificación y actualización en tiempo real. El trabajo futuro de este trabajo sería portar la
aplicación a una plataforma de desarrollo hibrido, que proporcione la creación del Asistente GC
en Android e iOS para que sea usado en cualquier dispositivo móvil.
References
[1] M. Anzures-García and L.A. Sánchez-Gálvez. Proposing an ontological model for developing collaborative systems.
Journal Intelligent & Fuzzy Systems 39-2, pp. 2545–2557, 2020.
[2] M. Anzures-García, L.A. Sánchez-Gálvez, Hornos, M., & Paderewski, P., Tutorial function groupware based on a
workflow ontology and a directed acyclic graph. IEEE Latin American Transactions 16-1, pp. 294-300, 2018.
[3] J. Grudin, Computer-Supported Cooperative Work: its history and participation. IEEE Computer, 27-5, pp. 19-26,
1994.
[4] J. Grudin, and S.E. Poltrock, Computer-Supported Cooperative Work and groupware. In: Advances in Computers,
45, pp. 269–320, 1997.
[5] M. Anzures-García, L.A. Sánchez-Gálvez and A. Campos-Gregorio. Weighted Bidirectional Graph-based Academic
Curricula Model to support the Tutorial Competence Journal Computer and System, 24-2, pp. 619–631, 2020,
[6] GoogleDrive. https://www.google.com/intl/es/drive/. Accedido el 7 de junio de 2021.
[7] WhatsApp. https://www.whatsapp.com/. Accedido el 8 de junio de 2021.
[8] Dropbox. https://www.dropbox.com/. Accedido el 6 de junio de 2021.
[9] Facebook. https://www.facebook.com/. Accedido el 6 de junio de 2021.
[10] Microsoft Kaizala https://www.microsoft.com/es-mx/microsoft-365/business/microsoft-kaizala. Accedido el 8 de
junio de 2021.
[11] Microsoft TEAMS. https://www.microsoft.com/es-mx/microsoft-teams/group-chat-software. Accedido el 9 de junio
de 2021.
[12] Trello. https://trello.com/. Accedido el 5 de junio de 2021.
[13] Skype. https://www.skype.com/ Accedido el 15 de junio de 2021.
[14] Zoom. https://zoom.us/
75
V. Educación en TI
76
Caso de estudio de la preferencia de modelo educativo y uso de TIC para
evaluar la implementación de un modelo de aula invertida
Área de conocimiento: Educación en TI
Erica María Lara Muñoz 1
, Rogelio Reyna Vargas 1
, Hugo de Jesús Lara Muñoz 1
, Félix Efraín Corro Islas 1
,
Cristhian Villegas García 1
1
Tecnológico Nacional de México - Instituto Tecnológico Superior de Alvarado, Escolleras Norte S/N,
Colonia La Trocha, Alvarado, Veracruz, C.P. 95250. México erica.lm@alvarado.tecnm.mx
Resumen. En este artículo se muestran los resultados obtenidos de una investigación que evalúa la
posibilidad de diseñar e implementar un modelo de aula invertida en estudiantes de educación superior.
El estudio se llevó a cabo en el Instituto Tecnológico Superior de Alvarado con 74 sujetos de estudio, de
diversas unidades académicas. Se realizaron dos test para la recolección de datos, los cuales fueron
validados con el coeficiente de Alfa de Cronbach. Los resultados del estudio mostraron que sí es pertinente
la implementación del modelo, debido a que los estudiantes tienen acceso a diversas tecnologías, así como
un buen dominio sobre las mismas, cuentan con servicio de Internet, prefieren revisar actividades en casa
para que estas sean elaboradas en el aula de clases, les gusta interactuar con sus compañeros y les interesa
que el docente sea su guía y orientador, características que presenta este modelo de aula invertida.
Palabras clave: Aula invertida, TIC, Herramientas tecnológicas, Tecnologías de la información y
comunicación.
1 Introducción
Las tecnologías de la información y la comunicación (TIC), son herramientas que han sido capaces de
evolucionar diversos sectores, se han hecho presentes en cualquier ámbito en la vida de un ser humano, dentro
del área social, personal, laboral, escolar y familiar, además, ahora se han vuelto indispensables para la
educación de los estudiantes. De manera general, las TIC permiten acceder, producir, presentar, guardar y,
sobre todo, transmitir información.
Uno de los mayores beneficios que ofrece el uso de las TIC en la educación, es facilitar el proceso
de enseñanza y aprendizaje debido a que, se puede tener acceso a diversa información y recursos de
manera práctica y muy fácil, además de que, se fortalece el trabajo colaborativo y genera
competencias en aspectos técnicos, formativos y metodológicos [1], además de favorecer a la
educación a distancia y mixta [2].
Por otro lado, así como las tecnologías vinieron a evolucionar nuestro actual actuar, las modalidades
y modelos educativos, también han venido presentando un cambio, anteriormente, el estudiante era
puramente el receptor de información, y ahora, se convierte en responsable de la generación de su
propio conocimiento. Desafortunadamente, estas modificaciones se han venido dando, sin consultar
previamente la opinión de los estudiantes y la experiencia que han tenido, y sin conocer realmente si
el modelo educativo representa o no, algún beneficio.
Por lo que en el presente artículo se describe un estudio realizado con relación a la preferencia del
modelo educativo de estudiantes de educación superior, así como de las TIC que estos más utilizan
para realizar sus actividades académicas, con la finalidad de conocer la pertinencia de
implementación de cursos académicos, haciendo uso de un modelo de aula invertida, en el cual los
estudiantes dispondrán de recursos que deberá analizar y estudiar en un tiempo fuera de su horario
de clases [3].
77
2 Estado del arte
El aula invertida se ha definido como un modelo, método de enseñanza o estrategia, en donde los
contenidos de un determinado curso se aprenden ahora fuera del aula y el docente puede profundizar
e implementar actividades de aprendizaje en clase durante un determinado curso [4]. El modelo,
también es conocido como Flipped Classroom, y la finalidad es que las actividades o tareas que el
estudiante hace regularmente en su casa, ahora las realice en el salón de clases, y las que hace en el
aula de clases, ahora sean llevadas a cabo en su casa -previa a sus clases-, es decir, en casa tendrá
que revisar contenidos (vídeos, audios, materiales diversos) y en clases, realizar actividades para
tener una participación más activa.
En este modelo de aula invertida, es necesario que, para realizar las clases, se haga uso de
herramientas que permitan facilitar el intercambio de la información e interacción, entre el docente
y el estudiante tanto dentro como fuera del aula, así como tecnología multimedia para los contenidos
estudiados antes de las clases [5].
Con el modelo del aula invertida el estudiante realiza un aprendizaje más profundo de manera
individual fuera del aula, ya que requiere revisar los contenidos que son sugeridos e indicados por el
docente, esto lo puede hacer las veces que sea necesario y sin la presión de tener que hacerlo en un
tiempo determinado, ya que él es quien pone su propio ritmo. Por otra parte, el docente se vuelve
solamente un coach dentro del proceso de aprendizaje, ya que dedica más el tiempo a resolver las
dudas que son expresadas por el estudiante. Este modelo favorece el desarrollo de competencias del
estudiante y permite reforzar tanto el trabajo individual como el colaborativo, debido a que los
compañeros de grupo pueden interactuar a través de diversas herramientas diseñadas para tal
propósito.
Existen investigaciones [6] [7] que han demostrado que el modelo de aula invertida ha sido benéfico
y eficiente para el aprendizaje de los estudiantes, además de que incide de manera positiva en ellos,
generando un pensamiento crítico, habilidades de comunicación y colaboración, así como una
preferencia en este tipo de clases con el modelo invertido.
Por otra parte, las TIC en este modelo son gran impulsoras que favorecen el desarrollo de diversas
habilidades como la comunicación, motivación, colaboración, creatividad, entre otras, además
permiten que el estudiante tenga una educación más dinámica, interactiva y, sobre todo, les facilitan
el acceso a diversos tipos de contenidos previamente seleccionados por el docente.
En este sentido, las tecnologías son un excelente aliado en este modelo, sin embargo, no hay que
olvidar que, antes de implementar el modelo, se debe de seleccionar la tecnología más adecuada para
ello, de tal manera que sea fácil de utilizar y monitorear. Los contenidos a desarrollar deberán ser
creados para que los estudiantes tengan acceso a ellos en todo momento que lo requieran y hay que
tener siempre presente, el monitoreo del avance de los estudiantes con relación a los contenidos
temáticos y las actividades solicitadas.
3 Metodología
El estudio se llevó a cabo en el Tecnológico Nacional de México - Instituto Tecnológico Superior de Alvarado,
considerando las unidades académicas de Lerdo de Tejada, Alvarado, Tlalixcoyan y Medellín de Bravo, todas
pertenecientes al Estado de Veracruz. Los sujetos de estudio fueron 74 alumnos de las cuatro unidades
académicas de las carreras de Ingeniería en sistemas computacionales e Ingeniería en Gestión Empresarial,
estos sujetos por lo menos habían utilizado durante un semestre anterior al estudio, diversas herramientas
tecnológicas durante sus cursos en línea.
Se elaboraron en Google Forms, dos instrumentos para la recolección de los datos, los cuales fueron
validados con el coeficiente de Alfa de Cronbach con el software SPSS v.23. Un primer instrumento
se elaboró con la finalidad de conocer la preferencia de los estudiantes sobre las modalidades
educativas y un segundo, para saber cuáles son las TIC que estos utilizan para la realización de sus
actividades académicas.
78
La validación del primer instrumento mostró un resultado en el coeficiente de 0.800 y del segundo
instrumento se obtuvo un 0.923, comprobando de esta manera la validez y confiabilidad de ambos
instrumentos.
El instrumento sobre la preferencia de la modalidad educativa estuvo formulado con 21 preguntas de
tipo Likert, la escala definida fue 1: Nunca, 2: A veces, 3: Casi siempre, 4: Siempre. Para el
instrumento del uso de la tecnología se realizaron preguntas generales para conocer el tipo de
tecnología que tienen y utilizan más y 16 preguntas tipo Likert para saber el nivel de dominio de la
tecnología que utilizan los estudiantes con mayor frecuencia, la escala definida fue 1. Insuficiente, 2.
Regular, 3. Bueno, 4. Muy bueno, 5. Excelente. Ver anexos.
Una vez que los test fueron contestados, se obtuvo la base de datos de las respuestas para procesar
los resultados que se mencionan en el siguiente apartado.
4 Resultados experimentales
Dentro de los resultados más relevantes que indican que el estudiante prefiere el modelo del aula invertida, se
ha encontrado que ellos prefieren revisar actividades en sus casas (ver figura 1) y realizar estas en el salón de
clases (ver figura 2), de manera que el docente sea el orientador y guía de dichas actividades, para este caso, el
60% prefiere que siempre el profesor funja de esta manera, el 25% casi siempre, el 13% a veces y sólo el 1%
nunca. Además, los estudiantes en un 25% siempre prefieren obtener retroalimentación oportuna por parte del
docente, el 47% casi siempre el 24% a veces y sólo el 4% nunca quiere tener esta retroalimentación.
La figura 1 muestra que la mayoría de los estudiantes, en un 60% (considerando a “Siempre” y “Casi
siempre” como valores positivos y a “A veces” y “Nunca” como valores negativos) prefieren revisar
las actividades en sus casas, actividades como audios, videos, lecturas, entre otros. Por lo que el 24%
prefiere siempre hacerlo, el 37% casi siempre, el 31% a veces y el 9% restante, nunca prefiere
hacerlo.
Fig. 1. Preferencia de los estudiantes para revisar actividades en casa.
En cuanto a la realización de las actividades en el aula, después de haber revisado material en casa,
el 18% de los estudiantes prefiere siempre hacerlas dentro del aula, el 43% casi siempre, el 31% a
veces y el 9% nunca, esto lo puede observar en la figura 2.
Por otra parte, cabe hacer mención que el 66% de los estudiantes contestó positivamente que prefiere
que el profesor prepare talleres prácticos para que de esta manera puedan aplicar el conocimiento
adquirido en casa dentro del aula de clases y así tener la retroalimentación oportuna mencionada
anteriormente.
79
Fig. 2. Preferencia de los estudiantes por realizar actividades en el aula.
En la figura 3, podrá observar que a los estudiantes les agrada trabajar de manera colaborativa, en su
mayoría, prefieren compartir opiniones con sus compañeros. Un 10% siempre prefiere hacerlo, el
47% casi siempre, un 26% a veces y el 16% nunca prefiere hacerlo. Sin embargo, dentro de estas
actividades colaborativas que tengan que realizar, un 44% siempre prefiere que exista la asignación
de tareas para que cada quién asuma responsabilidades, el 35% casi siempre lo prefiere, el 19% a
veces y el 1% nunca quiere tener asignada una tarea.
Fig. 3. Estudiantes que prefieren compartir opiniones con compañeros.
Con relación a los aspectos digitales, los estudiantes gustan por hacer uso de diversas tecnologías ya sea de
hardware como tabletas, smartphone, escáner, impresoras, cámaras, entre otras, o de software (ver figura 4),
además, estos no tienen problemas con la conexión a internet desde sus casas, inclusive, en su mayoría cuenta
hasta con buena conectividad y con más de un dispositivo móvil o portátil para el desarrollo y buen desempeño
en sus actividades académicas.
En la figura 4, se puede observar que el 88% de los estudiantes utilizan programas de cómputo como
lo son los procesadores de texto, las hojas de cálculo, las presentaciones electrónicas, software de
edición de vídeos y software de diseño gráfico. Además, también se muestra que el 99% de los sujetos
de estudio se comunica en la red a través de correo electrónico, mensajería instantánea y redes
sociales. El 84% se conecta a plataformas como navegadores de internet, plataformas educativas,
para alojar documentos en la nube, creación de formularios, alojamiento de videos y a base de datos
bibliográficas. El 96% utiliza la paquetería ofimática para elaborar sus actividades académicas que
deban ser documentadas. Cabe mencionar que en la figura 4, se combina el resultado de varias
preguntas del test del uso de TIC.
80
Fig. 4. Uso de diversas tecnologías.
Como puede observar en la figura 5, el nivel de dominio que predomina es el bueno y el regular, con
un 31% y 25% respectivamente, seguido por muy bueno con 21%, excelente 14% y por último
insuficiente con un 9%. Por lo que los estudiantes además de hacer uso de las diversas tecnologías
tienen un nivel de dominio que les permite realizar sin ninguna dificultad, sus actividades académicas
ya sea fuera o dentro del aula.
Otros hallazgos que se obtuvieron con diversas preguntas del test del uso de TIC, fueron el nombre
de más de cincuenta, entre herramientas, plataformas y tecnologías, de las que hacen uso los
estudiantes con mayor frecuencia, dentro de estás destacan la mensajería instantánea, haciendo uso
el 96% del WhatsApp, el 91% utiliza Gmail como correo electrónico, el 97% utiliza MS Word y MS
Power Point, el 95% hace uso de Excel, el 81% utiliza YouTube, el 82% Google Drive y Google
Chrome, el 100% Google Classroom, entre otras.
Fig. 5. Dominio de los estudiantes en el uso de herramientas.
81
5 Conclusiones y trabajos futuros
La investigación realizada, dio a conocer que por las preferencias que muestran los estudiantes de
interactuar con sus compañeros, revisar materiales en casa, hacer actividades en el aula, realizar
evaluaciones digitales, guardar documentos en la nube y que el docente sea guía y facilitador,
indica que el modelo de aula invertida es el preferido, ya que estas son algunas de las
características que se destacan en este modelo invertido. Sin embargo, existen actividades como
escribir un resumen o hacer una exposición, que prefieren hacerlo de manera tradicional y no
utilizar el diseño de un blog o realizar y subir un video a YouTube.
Otro aspecto importante para considerar es que los estudiantes no tienen problemas ni con el uso
de la tecnología, ni con el acceso a las mismas, inclusive el 100% de los sujetos de estudio cuentan
con una computadora ya sea de escritorio o portátil, de los cuales, el 93% tienen acceso a Internet
desde esa computadora personal, el 3% tiene acceso a Internet desde algún dispositivo móvil, y
sólo el 4% no tiene acceso a la red.
Se observa que la característica que presentan estos estudiantes es ser más activos, tecnológicos
y colaborativos, debido a ello, gustan por actividades que involucren diversos software, y la
tecnología, que les permitan realizar la mayoría de sus actividades académicas.
Por lo que se puede concluir que, los resultados del estudio muestran la pertinencia de
implementar el modelo de aula invertida en las asignaturas de los estudiantes, para ello, como
trabajo futuro se tendrán que analizar las herramientas a utilizar, y diseñar las actividades
pertinentes, con la finalidad de cumplir con las características que solicita el modelo y con las
necesidades y estilos de aprendizaje del propio estudiante, así, de esta manera, el estudiante pueda
enriquecer su aprendizaje y adquirir mayor conocimiento.
Referencias
[1] C. Sandoval. La Educación en Tiempo del Covid-19 Herramientas TIC: El Nuevo Rol Docente en el Fortalecimiento
del Proceso Enseñanza Aprendizaje de las Prácticas Educativa Innovadoras. Revista Tecnológica-Educativa Docentes
2.0, Vol. 9, No. 2, pp. 24-31. doi: 10.37843/rted.v9i2.138. 2020.
[2] L. Covarrubias. Educación a distancia: transformación de los aprendizajes. Telos: revista de Estudios Interdisciplinarios
en Ciencias Sociales, Vol. 23, No. 1, pp. 150-160. doi: 10.36390/telos231.12. 2021.
[3] G. Kraus, M. Formichella, y M. Alderete. El uso del Google Classroom como complemento de la capacitación presencial
a docentes de nivel primario. Revista Iberoamericana de Tecnología en Educación y Educación en Tecnología. No. 24,
79-90. doi: 10.24215/18509959.24.e09. 2019.
[4] E.M. Lara, M. Villarruel, R. Chávez y R. Reyna. Tendencias educativas en la educación superior tecnológica. España:
Diaz de Santos. 2021.
[5] V.C. Sandobal, M. B. Marín, y T. H. Barrios. El aula invertida como estrategia didáctica para la generación de
competencias: una revisión sistemática. RIED. Revista Iberoamericana de Educación a Distancia, Vol. 24, No. 2, pp.
285-308. doi: 10.5944/ried.24.2.29027. 2021.
[6] M. O. González y P. Huerta. Experiencia del aula invertida para promover estudiantes prosumidores del nivel superior.
RIED. Revista Iberoamericana de Educación a Distancia. Vol. 22, No. 2, pp. 245-259. doi: 10.5944/ried.22.2.23065.
2019.
[7] G. Arráez, A. Lorenzo, M. Gómez y G. Lorenzo. La clase invertida en la educación superior: percepciones del alumnado.
International Journal of Developmental and Educational Psychology. Vol. 2, No. 1, pp. 155-162. 2018.
82
Anexo 1. Test preferencia del modelo educativo
83
Anexo 2. Test uso de TIC
84
85
La estrategia de la formación continua en apoyo a las competencias de la
profesión
Juan José López Cisneros1
, María Eugenia Pérez Cortés2
y Noé Gilberto Menchaca de Alba3
1
Universidad de Guadalajara – Centro Universitario de Ciencias Exactas e Ingenierías, Blvd. Marcelino
García Barragán 1421, Olímpica, Guadalajara, Jalisco, 44430.
México
1
juan.lopez@académicos.udg.mx
2
Universidad de Guadalajara – Centro Universitario de Arte, Arquitectura y Diseño, Calzada Independencia
Norte No. 5075, Huentitán El Bajo S.H., Guadalajara, Jalisco., 44250. México
2ma.eugenia.perez@academicos.udg.mx, 3noe.menchaca@academicos.udg.mx
Resumen. Los cursos de formación continua son una estrategia en la educación superior para cumplir con
el propósito de la extensión universitaria. El objetivo de este documento es compartir una experiencia de
trabajo en un curso de este tipo con un grupo de estudio heterogéneo en sus profesiones donde tienen la
intención de incorporar la programación en Python a sus actividades profesionales. Se desarrolló un
modelo de trabajo el cual priorizaba la identificación de conocimientos previos y la adquisición de los
conocimientos de acuerdo a sus posibilidades académicas. En conclusión, los participantes valoraron la
metodología de trabajo, los recursos tecnológicos utilizados y se generaron redes de conocimiento entre
la diversidad de participantes.
Palabras claves: Formación continua, Pensamiento computacional, Programación, Planeación educativa.
1 Introducción
Los estudios de formación continua son un área de oportunidad en las universidades que se realizan como
actividad para apoyar la ampliación, especialización y actualización de los conocimientos. Como lo refiere
Redondo [1] al mencionar las cuatro funciones de la universidad al servicio de la sociedad, las cuales son la
investigación, la docencia, el apoyo técnico-científico al desarrollo cultural, social y económico, y, por último,
la extensión de la cultura universitaria.
El Plan de Desarrollo Institucional 2019 – 2025 [2] de la Universidad de Guadalajara establece sus
propósitos sustantivos los cuales se describen como la docencia y la innovación académica; la
investigación y transferencia tecnológica y del conocimiento; la extensión y responsabilidad social
y, por último, la difusión de la cultura.
Por lo que las actividades de formación continua constituyen un eje de trabajo en la relación entre la
universidad, el entorno y su trabajo de extensión. Las preguntas en relación a este tipo de actividades
son: ¿quiénes son los participantes beneficiados de estos estudios? ¿Qué propósitos logran cumplir
este tipo de actividades? ¿Cómo deben diseñarse y ejecutarse estas propuestas? ¿Qué oportunidades
se tienen a partir de las restricciones por la pandemia?
Los beneficios de este tipo de actividades parecen alentadores para cumplir algunas de las funciones
sustantivas de la universidad, pero hay ciertas implicaciones que limitan su realización, siendo este
trabajo una experiencia con un grupo de trabajo entre participantes de distintas profesiones y grados
de formación. ¿Cuál es la propuesta educativa entre los participantes de distintos momentos
educativos? ¿Cuáles fueron los aprendizajes obtenidos?
86
2 Estado del arte
La formación continua establece una relación directa entre la universidad y la sociedad, como lo
mencionan Arregui y Arreguit [3] es la íntima conexión que existen entre los diversos ecosistemas,
las organizaciones, los individuos en donde los responsables públicos y privados están teniendo que
desarrollar estrategias locales para ajustar los cambios emergentes entre todas las variables
concurrentes.
Su finalidad afirma Tejada y Ferrández [4] está en el desarrollo de competencias profesionales que
mejoran la ejecución de la profesión e incrementa el potencial de la organización a la que se
pertenece. Por lo que, se puede pensar que esta práctica sea enfocada a participantes que ya no forman
parte de un programa académico de pregrado o posgrado.
De forma natural, los cursos de formación continua a través de las instituciones educativas
tradicionales son organizados para grupos homogéneos y con una modalidad educativa presencial
para lo cual una planeación educativa caracteriza la situación, establece estrategias didácticas y
ejecuta el plan diseñado.
Aunque ya venían realizándose algunas actividades de este tipo por entidades emergentes a través de
plataformas virtuales de contenido educativo y de estrategias más visuales como los MOOCS, por
causa de los efectos provocados por la pandemia, en la universidad tradicional se ha acelerado la
conversión de estos cursos presenciales a virtuales, y que por ejemplo en Gárate y Cordero [5] se
menciona que la formación en línea de participante como el profesorado puede traer en su profesión
múltiples beneficios que incidan en su práctica educativa.
3 Problemática a resolver
Se ha mencionado previamente que la estrategia de cursos de formación continua en la institución se
desarrolla tradicionalmente con grupos de profesión homogéneos. Otra situación es que estos cursos
están diseñados tradicionalmente para realizarse de manera presencial y distantes de la incorporación
de las herramientas tecnológicas.
Si la propuesta de una institución académica es realizar una extensión universitaria a través de la
formación continua, donde los profesionistas tengan la oportunidad de mejorar la ejecución de su
profesión y que también la institución asimile cuáles son las necesidades de los participantes, de su
contexto y de la integración de quienes actualmente constituyen su comunidad universitaria, entonces
las visiones tradicionales tienen que cambiar. Es por ello que en este proyecto se decide establecer
algunos cambios de donde se destaca en primer lugar la formación de un grupo heterogéneo
Se ha propuesto la realización de un curso de formación continua con el título de ‘Introducción a la
programación en Python’ con la característica de conformar un grupo heterogéneo, interesado en
incorporar el uso de la programación en sus actividades profesionales y que el curso sea realizado a
través de modalidades no convencionales, provocado tal vez, por la situación de la pandemia.
3.1 Características del grupo de estudio
La integración del grupo fue a través de una convocatoria para registrase en el curso en una modalidad
no convencional en el cual se informaba que se tenía como finalidad la integración del pensamiento
computacional y la programación en sus actividades profesionales.
87
Finalmente, los participantes al grupo de estudio (ver Fig. 1) se conformó por 6 profesionistas, 14
académicos (as), 5 estudiantes de posgrado y 15 estudiantes de pregrado.
Fig. 1. Participantes en un curso de formación continua
La intención del estudio era que fuera un grupo heterogéneo y que además tuviese una
representatividad en sus profesiones, las cuales fueron:
Ingeniería Química, Licenciatura en Física, Doctorado en Ciencias en la especialidad en Física, Licenciatura en
Ingeniería Mecánica Eléctrica, Doctorado en Ciencias con Especialidad en Ingeniaría Eléctrica, Ingeniería en Sistemas
Computacionales, Maestría en Ciencias de la Computación, Doctorado en Ingeniería Química, Licenciatura en
Matemáticas, Licenciatura en Oceanología, Doctorado en Ciencias de la Tierra, Ingeniería en Sistemas, Licenciatura en
Administración, Ingeniería en Computación, Licenciatura en Informática, Ingeniería en Comunicaciones y Electrónica,
Ingeniería en Alimentos y Biotecnología, Ingeniería en Sistemas Biológicos, Ingeniería Biomédica, Ingeniería de Software,
Doctorado en Tecnologías de Información y, Maestría en Ciencias en Bioingeniería y Cómputo Inteligente.
3.2 El diseño instruccional
La diversidad presente en este grupo de estudio invita a no seguir la normalidad de los cursos que se
establecen en las instituciones educativas, por ejemplo, es común que en un grupo escolar que tienen alumnos
inscritos de un par de carreras distintas reciban la unidad de aprendizaje y se tengan las mismas competencias
y actividades para todos los que integran el grupo.
Pero como lo menciona Belloch [6] en su trabajo al describir lo que un profesional se plantea al
realizar un diseño instruccional, que este tiene que seguir un proceso con el fin de diseñar y
desarrollar acciones formativas de calidad.
Por ello el trabajo de diseño instruccional realizado para este curso de formación continua tenía como
prioridad el generar un espacio intelectual donde todos los participantes pudiesen realizar distintas
actividades, expresar sus dudas, problemas y por consiguiente compartir desde su experiencia muy
particular el avance que se ha tenido durante las sesiones.
La consideración a la ejecución del diseño instruccional (ver Fig. 2) propone tener un espacio de
trabajo a través de una plataforma virtual sincrónica como lo es ‘Zoom’, el desarrollo de actividades
a través de una plataforma asincrónica como lo es ‘Moodle’ y la utilización de un intérprete del
lenguaje ‘Python’ en su computadora local.
88
Fig. 2. Consideraciones al diseño instruccional
El diseño instruccional también considera que los elementos teóricos – prácticos desarrollados
durante las sesiones de aprendizaje fuesen significativos, según su profesión, el entorno y su
experiencia con el pensamiento computacional. Cada actividad diseñada debía consolidar una
competencia para el fortalecimiento de su labor profesional.
3.3 La evaluación de los aprendizajes
La finalización del estudio invita a realizar la evaluación de los aprendizajes obtenidos en relación a
lo que hace en su ámbito de la profesión. Para Salazar [7] el gran desafío que presenta la evaluación
en relación a recoger evidencias es la necesidad de garantizar la coherencia.
Si la finalidad para los que toman este curso es mejorar en la ejecución de su práctica profesional,
entonces es pertinente que se cierre el ciclo con la presentación de un proyecto final acorde a lo
realizado durante las sesiones y que sea directamente aplicado a alguna de las actividades de su
profesión.
Los exámenes quedan fuera de una pertinencia como método de evaluación de aprendizajes, por lo
que se privilegia el aprendizaje basado en el proyecto, el cual deberán presentarlo hacia sus
compañeros.
4 Experiencia realizada
Esta sección describe la experiencia realizada para ejecutar las actividades programadas durante la
duración del curso de formación continua.
1. El interés institucional. Este tipo de acciones al interior de una organización o institución
requiere que haya interés por parte de la alta dirección institucional al cumplir con las
estrategias planteadas en su Plan de Desarrollo Institucional, que en este caso es la extensión
universitaria en la sociedad.
2. La pertinencia del diseño instruccional. La directriz que se obtuvo a partir de los
requerimientos y necesidades de un grupo heterogéneo en mejorar en la ejecución de su
profesión a través de la formación en la programación, permite que se dé un valor agregado
con el aprendizaje significativo y en la evaluación de los aprendizajes.
3. La evaluación de un diagnóstico previo. Cada que se confirmaba el registro de un participante
donde se obtenían los datos administrativos, se le solicitaba que describiera su formación
académica, su experiencia programando y la expectativa que tenía del curso.
A partir de lo anterior se hizo la ejecución de la planeación establecida, por lo que se reunió al grupo
89
Asistencias por sesión
33
37 37
40 40 38 38 37 38
32
Dia 1 Dia 2 Dia 3 Dia 4 Dia 5 Dia 6 Dia 7 Dia 8 Dia 9 Dia 10
heterogéneo inscrito (ver Fig. 3) que estuvo participando de forma sincrónica en la plataforma
‘Zoom’ y de forma asincrónica en la plataforma ‘Moodle’. La planeación del curso propuso una
estrategia de 10 sesiones durante un poco más de tres semanas, es decir se realizaron tres sesiones
por semana.
Fig. 3. Evidencia de la estrategia de trabajo a través de plataforma sincrónicas y asincrónicas
La asistencia de los participantes en el curso fue alta (ver Fig. 4), lo cual puede indicar que los tema
abordados en cada sesión eran de interés, y también las inasistencias se puede deber a las
complicaciones de la conectividad y causas personales de los participantes. Como apoyo a no perder
algún tema, las sesiones eran grabadas y puestas a su disposición.
Fig. 4. Número de asistencias por sesión
De los canales de comunicación que ayudaron a que los participantes sintieran apoyo para comentar
sus dudas, problemas o situaciones imprevistas fue el abrir un canal de comunicación grupal
sincrónica como lo son el ‘Whatsapp’ y el ‘Telegram’, cualquier mensaje de urgencia eran atendidos
por estos medios por cualquier participante que apoyaba con comentarios de retroalimentación.
Otro elemento que se analiza fue la entrega de actividades posteriores a cada sesión que también fue
alto (ver Fig. 5). Aunque se muestra un dato cuantitativo, cada actividad implicaba que el participante
hiciera un reporte con evidencia del trabajo realizado, pero lo más importante era que expresaran los
problemas que habían tenido al realizar los problemas o ejercicios propuestos, que recomendaran
cómo se podría mejorar la actividad y expresaran las conclusiones de la misma.
90
Fig. 5. Número de actividades extra clases revisadas
La revisión de actividades extra clase tiene una corresponsabilidad de que los participantes en su
formación entreguen sus actividades extra clase en tiempo y forma y, que el asesor responda de la
misma manera revisando y retroalimentando las áreas de oportunidad y mejora que puede tener cada
participante en el desarrollo del curso.
La finalización de un curso de formación continua tiene como componente esencial que el
participante realice una integración del conocimiento adquirido y su área de profesión (ver Fig. 6) lo
que puede darse a través de una propuesta metodológica del ‘aprendizaje basado en problemas’.
Fig. 6. Evidencia de proyectos realizados
Un profesionista ya experimenta una serie de problemáticas a resolver en su espacio, por lo que la
propuesta de proyectos presentados en la sesión de cierre fue muy enriquecedora hacia todos en el
grupo.
Para finalizar, este estudio realizado cierra con la realización de un ‘Cuestionario de satisfacción y
retroalimentación’ en el cual se obtuvo de un cuestionario anónimo de los participantes de los
conocimientos adquiridos, de los aprendizajes significativos, del trabajo en un grupo heterogéneo de
distintas carreras y niveles educativos, de las expectativas cumplidas, entre otros elementos. Estos
resultados los mencionaremos en la siguiente sección.
5 Conclusiones y trabajo futuro
La apertura a nuevas visiones en la realización de los cursos de formación continua con propósito de
la extensión universitaria ha permitido observar las relaciones que se establecen entre grupos
heterogéneos y de distintos niveles educativos que lo integran.
91
Las experiencias educativas retroalimentan el quehacer académico de una universidad, de su misión
hacia un valor agregado a la sociedad, de la intervención de sus profesionistas en su contexto, esto
tiene que ir de la mano entre la interacción de sus profesionistas participantes de su entorno externo
con todos los personajes a su interior que integran la educación superior.
Del cuestionario final realizado a los participantes recuperamos los siguientes comentarios acerca de
compartir el conocimiento en un grupo heterogéneo:
1. “Considero que fue muy atinado porque me gusta conocer todo tipo de personas me ayuda a potencializarme. Lo
no conveniente fue que algunos tenían mucha preparación en programar, y esto es un peso fuerte que evita hacer
preguntas a lo que menos conocen de programación”.
2. “Es algo muy bueno y también divertido, porque hay gente que sabe más que tú y puede enseñarte y a la vez puede
haber personas recién iniciadas a las que puedes apoyar, existen muchos puntos de vista y miras los distintos
trabajos en los que se encuentran”.
3. “Muy bien. De los menos avanzados hay preguntas, que, aunque sean muy básicas ayudan a tener otra visión del
tema, y de los alumnos que están más avanzados se pueden obtener pistas de otras maneras de hacer las cosas”.
4. “Fue mi primera experiencia de este tipo, y fue muy fructífera para mí, ya que escuche a personas de otras áreas
de estudio de las cuales no tenía mucha información”.
Las experiencias fueron muy diversas, pero en su mayoría satisfactorias, de repente hay sensaciones
de la desconexión que hay entre los aprendizajes otorgados en los programas académicos y lo que un
profesionista requiere, por lo que estas interacciones son una estrategia para que todos los que
participan además de adquirir ciertas competencias o habilidades a su profesión, permite conocer lo
que hay que cambiar o innovar al interior de los programas académicos y el quehacer universitario.
Referencias
[1] F. Redondo. “Leonardo Torres Quevedo: el patrimonio histórico, científico, tecnológico y educativo… y las funciones
de la universidad”. Cabás, (17), 134-149. Junio 2017.
[2] Pendiente. “Plan de desarrollo institucional 2019-2025. Visión 2030”. (1). 17. 2019
[3] E. Arregui y X. Arreguit. “El futuro de la universidad y la universidad del futuro: Ecosistemas de formación continua
para una sociedad de aprendizaje y enseñanza sostenible y responsable”. Aula Abierta, 48(4), 447-480. Octubre-
diciembre 2019
[4] J. Tejada y E. Ferrández. “El impacto de la formación continua: claves y problemáticas”. Revista Iberoamericana de
Educación. 58(3). 1-14. Marzo 2012
[5] M. Gárate, y G. Cordero. “Apuntes para caracterizar la formación continua en línea de docentes”. Revista de estudios y
experiencias en educación, 18(36), 209-221. Abril 2019
[6] C. Belloch. “Diseño instruccional”. Unidad de Tecnología Educativa. 1-15. 2017.
[7] J. Salazar. “Evaluación de aprendizaje significativo y estilos de aprendizaje: Alcance, propuesta y desafíos en el aula”.
Tendencias pedagógicas. 31. 31-46. 2018.
92
Análisis cuantitativo del uso de recursos tecnológicos en la Plataforma
Moodle
Mayra Olguín Rosas1
y Socorro Martínez José 2
1
Universidad Nacional Autónoma de México, Facultad de Estudios Superiores Acatlán, Avenida Alcanfores
y San Juan, Totoltepec s/n, Sta Cruz Acatlan, 53150 Naucalpan de Juárez, Estado de México
131052@pcpuma.acatlan.unam.mx
2
Universidad Nacional Autónoma de México, Facultad de Estudios Superiores Acatlán, Avenida Alcanfores
y San Juan, Totoltepec s/n, Sta Cruz Acatlan, 53150 Naucalpan de Juárez, Estado de México
socorro.martinez@comunidad.unam.mx
Resumen. Las competencias y habilidades que los docentes deben cumplir, para ejercer su labor frente a un grupo de
personas, que serán en un futuro la fuente productiva de una entidad, comunidad, provincia, estado o país, es un tema que
nos hemos detenido en abordar preguntando a los estudiantes de acuerdo a lo ofertado el semestre pasado, a fin de identificar
cuáles fueron los recursos tecnológicos que más les gustó, y les permitió aprender sobre el contenido de la materia. A fin
de hacer un match entre lo que esperan los alumnos y lo que ofreció el docente, resaltando los intereses de los alumnos
cuando cursan una materia de nivel licenciatura en su modalidad a distancia. Los resultados ayudarán a generar una guía
de recursos tecnológicos para la planificación de actividades que motive al estudiante a aprender, y distinguir en el docente
competencias y habilidades que debe cuidar de manera continua.
Abstract. The competencies and skills that teachers must meet, to exercise their work in front of a group of people, who
will be in the future the productive source of an entity, community, province, state or country, is an issue that we have
stopped to address asking the students according to what was offered last semester, in order to identify which were the
technological resources that they liked the most, and allowed them to learn about the content of the subject. In order to
make a match between what the students expect and what the teacher offered, highlighting the interests of the students
when they take a course at the undergraduate level in its distance mode. The results will help to generate a guide of
technological resources for the planning of activities that motivate the student to learn, and distinguish in the teacher
competences and skills that must be taken care of continuously.
Palabras clave. Recursos tecnológicos, modalidad a distancia, plataforma educativa.
Desarrollo
La pandemia que genero el COVID-19, marca un antes y un después en el uso de plataformas educativas,
recursos tecnológicos y cualquier objeto de aprendizaje que se utilizará para impartir una clase. También se
generaron diversas ramas de investigación para abordar el tema educativo dadas las circunstancias, tales como
el poder adquisitivo de los docentes para comprar equipo de cómputo y seguir con su labor, espacios adecuados
para docentes y alumnos para impartir o tomar la clase, la señal de internet que no dejo de ser intermitente en
varios momentos de nuestras actividades académicas, entre otras muchas ramas. El objetivo de este análisis, es
conocer las preferencias de recursos tecnológicos dirigidos a estudiantes de nivel licenciatura, e incluirlos en
la planificación de cursos para motivarlos a aprender.
Empezaremos por definir el ambiente educativo en donde se han desarrollado diversos materiales para apoyar
de una manera ordenada el aprendizaje de los alumnos.
La plataforma educativa que se utilizó durante el semestre 2021-II, periodo que comprendió de Febrero a Junio
de 2021, fue Moodle. Ésta plataforma educativa está diseñada para proporcionarle a los docentes,
administradores y estudiantes un sistema integrado único, robusto y seguro para crear ambientes de aprendizaje
personalizados.2 Actualmente, el LMS (Learning Management System) se encuentra instalado en un servidor
de la FES Acatlán UNAM, con el apoyo de un proyecto PAPIME PE306019 (Proyecto de Apoyo Para la
Investigación y el Mejoramiento de la Enseñanza) a cargo de la Dra. Mayra Olguín Rosas.
Esta plataforma cuenta con varios cursos curriculares dirigidos a alumnos de licenciatura y posgrado de la
Facultad de Estudios Superiores Acatlán UNAM. La información que se presenta es sobre la materia Métodos
Numéricos II, ubicada en el cuarto semestre de la licenciatura en Matemáticas Aplicadas y Computación.
Cabe señalar, que antes de la pandemia COVID-19, la forma de trabajo con los alumnos de manera presencial
era compartir en el salón de clases documentos en formato PDF, infografías, presentaciones en power point,
2
Recuperado de: https://docs.moodle.org/all/es/Acerca_de_Moodle, Consultado el 3 de agosto de 2021
93
entre otros materiales, para guiar la clase teórica, mediante el uso del pizarrón, plumones de colores,
videoproyector y en su caso bocinas si se contaba con algún material que lo requiriera. Posteriormente, el
docente colocaba ejercicios en el pizarrón y acompañaba al estudiante en su elaboración, a fin de resolver las
dudas que surgieran en el intento de cada ejercicio realizado. Como parte del reforzamiento del tema, se
solicitaba al alumno que realizara una serie de ejercicios y que los subiera a una sección de la plataforma
Moodle para posteriormente calificarla dando comentarios breves.
Durante el semestre pasado (2021-II), la forma de trabajo con los estudiantes en su modalidad a distancia fue
apoyado con sesiones en la aplicación zoom, donde la UNAM apoyó a cada universitario con una cuenta propia.
En ocasiones los alumnos indicaban que no podían habilitar su cámara debido a que no contaban con ella, o
bien al encenderla los datos o el ancho de banda no era suficiente para escuchar de manera fluida a los
participantes de la clase. Mantener las cámaras apagadas, se volvió un monólogo, con silencios que sepultaban
el ánimo de los participantes, esta forma de trabajo implicó situaciones emocionales para todos.
El docente previo al inicio del semestre, contó con capacitación para el uso de la aplicación zoom, sin embargo,
la frase “la práctica hace al maestro” se tardó mucho en volverse una realidad. Dicha plataforma de
comunicaciones centrada en la tecnología de vídeo es innovadora, fiable y sencilla, que ofrece reuniones con
vídeo, voz, seminarios web y chat en ordenadores, teléfonos, dispositivos móviles y sistemas de salas de
conferencias.3 La aplicación se acompañó de tabletas tradicionales, tabletas de dibujo, lápiz electrónico,
guante, audífonos, que el docente adquirió por cuenta propia, a fin de continuar con su labor a la distancia.
Durante la clase se utilizaron los documentos PDF, infografías, presentaciones en PowerPoint, para guiar la
clase teórica. La aplicación zoom permitió compartir los documentos, materiales multimedia, así como las
explicaciones a partir del uso de tabletas. Sin embargo, la participación del alumno al realizar los ejercicios fue
muy poca, comparado con los resultados vividos en la modalidad presencial, por tal se indago en este hecho
apoyado en algunas preguntas que se comparten en los resultados de esta investigación.
La plataforma educativa Moodle permitió al docente colocar los recursos y actividades planificados por
semana. Así, se contaron con 16 semanas las cuales se denominaron “sesiones”. También el docente cubrió el
rol de “curador” al seleccionar varios videos de YouTube, y el rol de “creador” de videos para complementar
algunos temas.
Por otra parte, el alumno encontró un espacio ordenado para depositar sus tareas y realizar sus actividades, así
como darle seguimiento a las calificaciones logradas y a los comentarios de mejora para cada actividad.
Se elaboraron listas de cotejo para acompañar a cada actividad o tarea que el alumno entregara, para guiar el
desarrollo de acuerdo al objetivo de aprendizaje esperado por el docente. El alumno trabajó en equipo de 4
integrantes máximo, y contaba con 15 días para entregar la actividad, a partir de que se revisaba el tema en la
sesión virtual.
Descripción del estudio
El estudio considera dos grupos con un total de 98 alumnos matriculados, donde 19 de ellos no presentaron el
curso y 62 respondieron la encuesta. El instrumento para generar el análisis cuantitativo consta de 11 preguntas,
y se solicitó a los alumnos que la respondieran de manera anónima, a fin de conseguir resultados objetivos.
La población se distinguió por tener una edad promedio de 21 años. Como se puede apreciar en la figura 1, el
24% pertenecen al género femenino y el resto al masculino.
3
Recuperado en https://zoom.us/es-es/about.html, consultado el 3 de agosto de 2021.
94
Figura 1 Género
Los estudiantes utilizaron sus dispositivos electrónicos 61 horas en promedio a la semana para realizar sus
actividades académicas, para todas las materias inscritas durante el semestre. Y 18.4 horas promedio a la
semana para realizar las actividades de Métodos Numéricos II. Podemos notar que los alumnos utilizan sus
dispositivos electrónicos, un poco más de la tercera parte del tiempo para todas sus materias, dado que a la
semana se tienen 168 horas. Y 2.6 horas diarias en promedio para la materia de Métodos Numéricos II,
considerando los fines de semana, lo cual se intuye cierto, ya que los datos corresponden a alumnos del turno
matutino, que regularmente son personas que solo estudian.
Los alumnos manifestaron su forma de trabajo durante el semestre, con la siguiente preferencia:
Figura 2 Cuando te dispones a realizar tus tareas ¿Cuál es la actividad que
le dedicas más tiempo?
1. Revisar recursos y actividades en la plataforma
2. Revisar otros sitios web sobre el tema
3. Contactar a sus compañeros por mensajería (correos, mensajes, WhatsApp, etc)
4. Revisar el calendario de actividades
5. Uso de BIDI UNAM
como se muestra en la figura 2. Cabe resaltar, que si bien los accesos abiertos a la internet son más simples
para encontrar información, muchos de ellos no son fidedignos, o son de tercera mano o se prefieren porque no
se conoce el uso de bibliotecas digitales, para apoyar la consulta y complementar el aprendizaje sobre el área
de conocimiento.
Por otra parte, el 94% de los alumnos indicaron que fue de su agrado el uso de la plataforma, y el 90% de ellos
comentaron que la plataforma sirvió para mejorar su rendimiento académico, como se comparte en las figuras
3 y 4, respectivamente.
95
Figura 3 Fue de tu agrado
utilizar la plataforma
Figura 4 Usar la
plataforma sirvió para
mejorar tu rendimiento
académico
En este estudio, los alumnos señalaron los materiales que les gustaron porque les permitió comprender los
temas, lo cual se aprecia en la figura 5.
Figura 5 Los materiales que te gustaron, porque te ayudaron a comprender
el tema fueron.
Resaltemos los recursos que logran 30 votos o más. En primer lugar y con 49 votos fueron Documentos PDF,
en segundo lugar Videos elaborados por el docente a cargo del grupo y Cuestionarios, que lograron la misma
cantidad de votos. En tercer lugar las Presentaciones en PowerPoint con 34 votos, en cuarto lugar y con 31
votos las Retroalimentaciones a las actividades entregadas, y en quinto lugar y con 30 votos los Videos
seleccionados por el docente.
De acuerdo, con diversas estrategias de aprendizaje, se ha recomendado usar presentaciones gráficas, diseñados
con colores y diversas tipografías para hacer atractiva la enseñanza. Sin embargo, esto no es estrictamente a
seguir, ya que depende de la población a la que va dirigida. Recordemos que los recursos tecnológicos fueron
ofertados a una población estudiantil en el área de conocimiento en Matemáticas Aplicadas, quienes al parecer
prefieren la lectura lineal y no la gráfica, que presenta un documento PDF y no una presentación en PowerPoint,
respectivamente, aunque cabe aclarar que dicho recurso logro el tercer lugar de 11 ofertados.
En cuanto a los videos, el 62% de los alumnos encuestados prefieren aquellos que son elaborados por el docente
que les imparte la materia, y el 48% los seleccionados de otras plataformas. Los Cuestionarios también son
aceptados por la población académica encuestada, en un 62%, cuya configuración en Moodle consistió en estar
disponible por 15 días, con dos intentos y cada participante del curso lo realiza de forma individual.
Finalmente se indago en la forma y gusto por revisar las calificaciones, logrando los siguientes resultados.
96
Figura 6 ¿Es fácil revisar
las calificaciones de las
actividades?
Figura 7 ¿Te gusta revisar
las calificaciones
asignadas?
El 66% de los alumnos indicaron que es fácil revisar las calificaciones de las actividades, y el 92% indicó que
le gusta revisar las calificaciones asignadas. Sin embargo, ésta última pregunta estuvo acompañada por la
pregunta 11 ¿Porqué? Se puede intuir que aquellos alumnos que si les gusta revisar sus calificaciones,
encuentran la siguiente utilidad:
 Observar sus errores lo que les permite determinar su comprensión y aprendizaje del tema.
 Mejorar la entrega de sus próximas tareas.
 Llevar un control y seguimiento de sus trabajos para conocer su evaluación final.
Por otra parte, aquellos que indicaron que no les gusta, arrojo palabras como estrés, frustración, enojo y tristeza,
que son sentimientos. Esto se pudo originar por limitaciones de equipo de cómputo o internet en sus hogares,
mala organización de su tiempo o no contar con un espacio de estudio adecuado.
Los sentimientos que se generaron en los alumnos pueden presentarse en la modalidad presencial o a la
distancia, debido a que es sabido que los procesos evaluativos nos sacan de nuestra zona de confort para una
mejora. Por otra parte, la plataforma educativa Moodle permite que dicho proceso se realice de manera
ordenada y confidencial, a fin de ser respetuosos y cautos para lograr una evaluación objetiva.
Conclusiones
Este trabajo presenta evidencias sobre las preferencias de los alumnos en el uso de recursos tecnológicos en
una modalidad a distancia. Aunque se pudo observar que se ofertaron al menos 11 diferentes tipos de recursos,
el rendimiento del estudiante fue de 6.5 (promedio de calificación aprobatoria) para los 64 alumnos aprobados.
Los sentimientos negativos del alumno se pueden deber al aislamiento que produce tomar cursos a la distancia.
Por otra parte, no se puede comparar el rendimiento con un ambiente presencial, debido a que los entornos son
muy diferentes, pero debe quedar claro que el compromiso para ofertar y recibir conocimientos significativos
y duraderos, no solo depende del docente, ni de sus habilidades y competencias para impartir su cátedra, con
todo lo que implica, sino también del compromiso, habilidades y competencias de los alumnos.
Con la lista de preferencias de recursos tecnológicos que se presentan, desde el punto de vista del estudiante,
se cuentan con la base para iniciar la planificación de los mismos y continuar con estructurar una metodología
de comunicación activa para que todos los actores de este ambiente a la distancia se sientan acompañados, a
fin de disminuir para todos los sentimientos negativos.
Referencias
1. Regueiro-Gómez A., Busoch-Morlán CB, Busoch CR, Sánchez-Bao R. (2013) Experiencias en la enseñanza
semipresencial en el Plan de Estudio de Ingeniería Biomédica en el “Instituto Superior Politécnico José Antonio
Echeverría”. En: Folgueras Méndez J. et al. (eds) V Congreso Latinoamericano de Ingeniería Biomédica CLAIB
2011 16-21 de mayo de 2011, Habana, Cuba. Actas de la IFMBE, vol. 33. Springer, Berlín,
Heidelberg. https://doi.org/10.1007/978-3-642-21198-0_94
97
2. Sitio oficial Moodle. Recuperado de: https://docs.moodle.org/all/es/Acerca_de_Moodle, Consultado el 3 de
agosto de 2021
3. Sitio oficial Zoom. Recuperado en https://zoom.us/es-es/about.html, consultado el 3 de agosto de 2021.
4. del Moral Pérez, M.E., Villalustre Martínez, L. University teaching in the 2.0 era: virtual campus teaching
competencies. Revista de Universidad y Sociedad del Conocimiento 9, 231–244 (2012).
https://doi.org/10.7238/rusc.v9i1.1127
98
Tecnología móvil para la educación de la salud en tiempos de pandemia
en estudiantes de Media Superior
Carmen Cerón1
, Isabel Sánchez1
, Etelvina Archundia1
, Víctor Manuel Mila2
y Patricia López3
1
Facultad de Ciencias de la Computación, Benemérita Universidad Autónoma de Puebla
Avenida San Claudio y Boulevard. 14 sur, Ciudad Universitaria Puebla, Pue, 72570 México.
{carmen.ceron, isabel.sanchez, etelvina.archundia}@correo.buap.mx
2
Preparatoria Benito Juárez García, Benemérita Universidad Autónoma de Puebla
Blvd. 14 sur y Circuito Juan Pablo, Colonia San Manuel, Puebla, Pue, 72570 México.
victor.mila@ correo.buap.mx
3
Facultad de Medicina, Benemérita Universidad Autónoma de Puebla
27 poniente y esq. 13 sur, Colonia Volcanes, Puebla, Pue, 72090 México.
paty.lopez@correo.buap.mx
Resumen. El propósito del trabajo es analizar el impacto de la App para apoyar la Competencia 3. “Elige
y practica estilos de vida saludables”. Siendo una herramienta para la promoción de salud en hábitos de
alimentación y ejercicio para evitar el sobrepeso y sedentarismo. La investigación fue cuantitativa y
exploratoria con una muestra de 40 alumnos. Los resultados obtenidos al inicio del semestre, mostraron que
85% de los estudiantes tenían malos hábitos de alimentación, poco ejercicio y la tendencia en el peso era
sobrepeso. Al finalizar el semestre, de acuerdo al registro un 45% mejoraron los hábitos de alimentación y
ejercicio mediante el seguimiento y el uso de la App. Finalmente, los estudiantes consideran que el
aprendizaje móvil apoya en un 80% el cuidado del peso y facilita la educación de la salud, además de cuidar
aún más su salud en tiempos de pandemia.
Palabras clave: App, IMC, Bachillerato, Hábitos alimenticios, Estilos de vida
Abstract. The purpose of this work is to analyze the impact of the App to support the Competence 3.
“Chooses and practices healthy lifestyles”. Being a tool for the promotion of health in eating and exercise
habits to avoid overweight and sedentary lifestyles. Research was quantitative and exploratory with a
sample of 40 students. The obtained results at the beginning of the semester, 85% of students had poor
eating habits, little exercise and the trend in weight was overweight. At the end of the semester, according
to the register, in 45%, they improved the eating and exercise habits through the follow-up and use of the
App. Finally, students consider that mobile learning supports in 80% the weight care and ease health
education, moreover to take even more care in their health in pandemic times.
1 Introducción
En la última década América Latina enfrenta importantes desafíos en materia de educación donde las
problemáticas como: altas tasas de reprobación, deserción en bachillerato; baja calidad educativa; y
programas de formación del profesorado insuficiente, son parte de lo que se ha venido acentuando
en las zonas urbanas y rurales. Como alternativa la UNESCO [1] ha recomendado el uso de la
tecnología móvil en la educación tanto del sector público como privado proponiendo como una
estrategia el “aprendizaje móvil” y hacer frente a algunas de las necesidades educativas, ya que con
el crecimiento del uso de la telefonía móvil pueden incursionar como una herramienta para este
aprendizaje, lo cual requiere todo un proceso de formación y programas que puedan incluir y no
aumentar la brecha digital ya existente. Por otra parte, problema de salud mundial de la pandemia y
con llegada del virus Covid-19, se ha enfatizado el cuidado de la Salud. En la actualidad por la
pandemia de Covid-19, se requieren establecer estrategias para poder educar a la población en el
cuidado de su salud y acceso a la información. La Organización Mundial de la Salud (OMS) en
diversos programas como ha incorporado en el uso de las Tecnologías de la Información y
Comunicación (TIC) para la promoción de la salud como son de hábitos saludables y cuidado del
99
individuo. Así también la OMS ha reconocido la salud digital siendo “el uso de tecnologías digitales,
móviles e inalámbricas para respaldar el logro de objetivos de salud. La salud digital describe el uso
habitual de las tecnologías de la información y la comunicación (TIC) para la salud e incluye tanto
la m-Salud como la e-Salud” [2]
Con base a lo expuesto esta investigación tiene como objetivo analizar el impacto de la App para el cuidado
del peso apoyando la Competencia 3 “Elige y practica estilos de vida saludables” y para apoyar la promoción
y de la educación para la salud ante la pandemia del Covid-19 permitiendo el acceso a la información de manera
práctica y flexible. El documento está estructurado de la siguiente manera: En la sección 2, se presenta estado
del arte. En la sección 3, se define la metodología y diseño de la aplicación. En la sección 4, se muestran los
resultados de la investigación y finalmente en la sección 5, se presentan las conclusiones y perspectiva de esta
investigación.
2 Estado del Arte
Para Kostkova [3] la educación de la salud la define como “el uso de Internet y las tecnologías de
comunicación para mejorar la salud humana, los servicios de atención a la salud y el bienestar de los
individuos y las poblaciones”. El uso de las TIC ha permitido crear entornos de aprendizaje y de
comunicación, logrando obtener, transmitir y compartir, de inmediato, abundante información en
estos tiempos de la pandemia. Por otro lado, las TIC en general y, los dispositivos móviles como
tabletas, teléfonos, smartwatchs, prendas inteligentes y otros dispositivos, son utilizados
especialmente en los adolescentes ya que son motivantes para ellos, las TIC pueden ofrecer también
la oportunidad de fomentar hábitos saludables. Según [4] afirman que “este tipo de intervenciones
pueden potenciar o complementar el impacto de las estrategias empleadas, siendo las TIC favorables
y atractivas para la niñez y adolescentes”. Con respecto al uso de la tecnología móvil en educación
es una poderosa herramienta educativa debido a sus características: portabilidad, inmediatez,
conectividad, ubicuidad y adaptabilidad [5].
En este momento de crisis, los países deben demostrar con acciones un compromiso con la niñez y
adolescencia para asegurar la salud física y emocional teniendo el cuidado y la aplicación de medidas
preventivas y educación para la salud. La promoción de la salud se retoma como una estrategia básica
para la adquisición de conocimientos y el desarrollo de aptitudes o habilidades personales que
conlleva a cambios de comportamiento relacionados con la salud y al fomento de estilos de vida
saludables [6]. Los diversos estudios del Covid-19 han demostrado que las personas con más
comorbilidades son más vulnerables en contraer la enfermedad, de acuerdo con el IMSS, 1 de cada
3 mexicanos padece hipertensión y 6.5 millones de adultos mayores de 20 años viven diabetes [7].
Según reportes oficiales, más del 40% de los fallecidos por Covid-19 tenía diabetes o alguna
enfermedad crónica no transmisible, siendo un panorama fatal ante las olas de contagio de la
pandemia que se han presentado a nivel mundial
Por otra parte, el sobrepeso y la obesidad son factores de riesgo para enfermedades como la hipertensión,
las enfermedades cardiacas, diabetes, artrosis, entre otras. Los resultados de las investigaciones son
contundentes: si no adquirimos pronto un estilo de vida saludable, en menos de tres décadas nuestro país tendrá
uno de los más altos índices de la región con pacientes diabéticos, hipertensos y cardíacos; entre otras
patologías.
Existen diferentes aplicaciones en el campo de la salud, más de 97,000 apps que pueden
descargarse. De las cuales, el 70% están destinadas a bienestar y deporte mientras que el otro 30%
son exclusivas para pacientes y profesionales de salud que les facilita el acceso a datos de salud
del paciente, monitorización, diagnóstico por imagen, entre otros. De acuerdo al estudio [8] pueden
ser clasificadas por su propósito y tipo de usuario
a) Sistemas de Salud: Se refiere a los sistemas informáticos, reportes, encuestas e infraestructura
para atender a la población como e-Health en Perú, m-Health en Brasil, Cell PREVEN en Perú
entre otras.
100
b) Profesional de Salud: Son aquellas aplicaciones en cada rama específica o especialidad que
permite tener información de manera precisa, reduciendo tiempo y acceso lo cual aumentan la
eficiencia y el apoyo al profesional como Mendscape ofrece calculadoras médicas,
información sobre medicamentos y casos clínicos.
c) Pacientes: información necesaria para tratamiento de enfermedades crónicas; a su vez
mejorando los tiempos en hospitales y comunicación hospital-paciente.
d) Usuario No Paciente: los dispositivos móviles ofrecen aplicaciones al alcance de sus
necesidades estableciendo parámetros y midiendo signos vitales para la mejora de la nutrición
o por el contrario el Índice de Masa Corporal (IMC), la presión sanguínea y en general su
bienestar físico y mental.
Con respecto a esta última clasificación, se ha diseñado aplicaciones sobre el IMC para identificar
posibles problemas de salud de los adultos. Sin embargo, el IMC no es una herramienta de
diagnóstico por ello para determinar si el exceso de peso es un riesgo para la salud, un proveedor de
atención médica necesitará realizar evaluaciones adicionales.
Por lo cual el objetivo general de la aplicación móvil propuesta es calcular el índice de masa corporal,
el peso ideal, la ingesta de agua promedio, la tasa metabólica basal, relación cintura-altura, relación
cintura-cadera a partir de datos proporcionados por el usuario, de tal manera que la información le
permita tomar decisiones con respecto a su salud y finalmente recomendar una serie de actividades
y de un control nutricional basado en la ciencia, es decir, comer de manera sana. Esto conlleva a
revisar el impacto que tienen los estudiantes de educación media superior al utilizar el dispositivo
móvil y su aplicación para apoyar la formación de la competencia 3. “Elige y practica estilos de vida
saludables” Así también analizar si “el uso de esta aplicación le sirvió para practicar un estilo de vida
saludable en la pandemia para cuidar su salud”, teniendo como punto de partida el sobrepeso.
3 Metodología
La investigación se enmarca en la metodología cuantitativa, no experimental y de carácter
exploratorio, lo cual permite acercarnos al análisis y diagnóstico de la situación de estudio. Para el
desarrollo de la aplicación móvil se utilizó la metodología ágil, la cual consiste en desarrollo
incremental mediante sprints [9]. El tipo de aplicación móvil que se diseño fue orientada a la
categoría para Usuario-No Paciente. El caso de uso en UML representa un objetivo sencillo de un
sistema donde describe una secuencia de actividades y de interacciones con el usuario para alcanzar
un objetivo, como se observa en la Figura1.
Fig. 1. Caso de uso de la aplicación móvil.
Para el desarrollo se utilizó Flutter es un framework de código abierto desarrollado por Google
para crear aplicaciones nativas de forma fácil, rápida y sencilla. Su principal ventaja radica en que
genera código 100% nativo para cada plataforma, con lo que el rendimiento y la UX son totalmente
idéntico a las aplicaciones nativas tradicionales.
Para la base de datos se utilizó Firestore que es flexible y escalable para el desarrollo en servidores,
dispositivos móviles y la Web mantiene los datos sincronizados entre apps cliente a través de objetos
de escucha en tiempo real. Para la autentificación se utilizó Firebase Authentication logrando un
101
backend personalizado. En la Figura 2, se observa los slash y ventanas de la aplicación móvil que
permite al usuario el registro, calculo IMC y recomendaciones de acuerdo a sus resultados.
Fig. 2. Slash y ventanas de la aplicación.
4 Resultados y pruebas de la aplicación
Para probar el funcionamiento en un grupo piloto de 40 estudiantes se les pidió usar la App durante
el semestre de primavera 2021 y al finalizar se realizó una encuesta de usabilidad usando escala
Likert del 1 al 5. Las preguntas se dividieron en cuatro categorías: 1) Atención y Motivación, 2)
Aprendizaje Activo y Autónomo, 3) Recurso didáctico digital y 4) Accesibilidad Los resultados
obtenidos se observan en la Tabla 2 y en la Figura 3.
Atención y
moticación
Aprendizaje activo y
autónomo
Recurso
didáctico digital
Accesibilidad
Totalmente en
desacuerdo
0% 2% 0% 0%
En desacuerdo 2% 3% 13% 5%
Indiferente 11% 11% 11% 15%
De acuerdo 23% 15% 27% 23%
Totalmente de acuerdo 64% 69% 50% 58%
Tabla 2. Resultados de la Encuesta de Usabilidad de la App
Fig. 3. Grafica de los resultados de la usabilidad de la App.
Los estudiantes consideran el uso de manera positiva la App en un 84% les ayuda a aprender de
manera activa y autonoma, es decir, les facilita interactuar con la aplicación para poder realizar su
seguimiento de atención y cuidado de su salud en el caso del sobrepeso. Así tambien las
recomendaciones y sugerencias de la App les motiva de manera positiva en un 87 % utilizarla y solo
entre un 11% y 15% les pareció indifiderente para los estilos de vida saludable. Es importante señalar
102
App apoya un estilo de
vida saludable
20%
S…
80%
los comentarios de los estudiantes fueron postivos “Una Buena aplicacion para consientizar que no
debemos tomar a la ligera la obesidad y cuidarnos para nuestro bien”, “la App es muy interesante”,
entre otros. Con respecto a la competencia 3. Elige y practica estilos de vida saludables y los
atributos: A. 3.1 Reconoce la actividad física como un medio para su desarrollo físico, mental y
social, y A. 3.2 Toma decisiones a partir de la valoración de las consecuencias de distintos hábitos
de consumo y conductas de riesgo, se lograron evaluar. Para identificar los niveles del logro de la
competencia, se aplicó un test al final en la materia de Tutoría y la estrategia de evaluación del
esquema de semáforo. Los resultados obtenidos se muestran en la Tabla 2.
Criterio de
Logro
Competencia 3. Elige y practica estilos de vida
saludables
Descripción del criterio de logro
% Alumnos
A3.1 A3.2 C3
Rojo No desarrollada, (Bajo, menor a la media) 0% 0% 0%
Amarillo desarrollo (Regular, dentro de la media) 10% 15% 25%
Verde arrollada (Alto, superior a la media) 30% 45% 75%
Tabla 2. Resultados de las Competencias disciplinares en estrategia de semáforo
Esta estrategia evaluativa tiene como objetivo compartir con los estudiantes las metas de aprendizaje
y promover la participación activa en el desarrollo de las competencias. Se observa que los alumnos
por medio del uso de la App pudieron realizar un seguimiento a su control de peso y poder contribuir
al desarrollo de la Competencia C3, mediante su atributo A2, donde el estudiante asumió su
responsabilidad y tomo la decisión de cambiar su estilo de vida, logrando activarse mediante el
ejercicio y mejorar sus alimentación ya que el peso se registraba de manera constante en la App y la
tutora les pido durante ese semestre utilizarla. Esto permitió que los estudiantes aumentaran su
actividad física y mental.
Por otra parte la premisa “el uso de esta aplicación le sirvió para practicar un estilo de vida saludable
en la pandemia para cuidar su salud”, teniendo como punto de partida el registro del sobrepeso
mediante el IMC y los demás parámetros, 80% afirmaron que si les ayudo y el 20% comento que no
les ayudo como se muestra en la Figura 4, lo cual conlleva que la toma de decisión y compromiso del
estudiante es muy importante para desarrollar hábitos saludables y que las Apps les facilita el
aprendizaje y motiva para lograr las metas de aprendizaje.
Fig. 4. Grafica de los resultados del uso de la App para apoyar un estilo de vida saludable
4 Conclusiones y Trabajos Futuros
En el presente trabajo, se logró el desarrollo e implementación de una aplicación móvil para apoyar la
educación y promoción en la salud como una herramienta de gestión del cuidado del sobrepeso para apoyar a
los estudiantes de educación media superior, y a la obtención de las competencias genéricas de perfil de egreso
y en específico la “Competencia 3. Elige y practica estilos de vida saludables” logrando utilizar el manejo de
103
una aplicación que los motive a aprender y tomar decisiones para para mejorar su salud en estos tiempos de
pandemia.
Por otra parte, el trabajo a futuro es poder desarrollar el uso de Apps que les ayude en el cuidado y promoción
de la salud que permita mejorar su calidad de vida entre los jóvenes y contribuir a sensibilizar a esta población
ante este tipo de consecuencias en la salud del individuo. Además que las Apps estén disponibles para otros
planteles del Bachillerato Universitario-BUAP y también de otros subsistemas de educación media superior.
Así como ampliar las pruebas de funcionales y de usabilidad que permitan mejorar las experiencias de usuario
usando tecnología móvil.
Agradecimientos. A la Vicerrectoría de Investigación y Estudios de Posgrado de la Benemérita
Universidad Autónoma de Puebla por el apoyo y financiamiento de esta investigación y a los
estudiantes del Bachillerato BUAP por su participación entusiasta y la de los docentes.
Referencias
[1] UNESCO. Directrices de la UNESCO para las políticas de aprendizaje móvil. UNESCO, 2013.
[2] Organización Mundial de la Salud. Monitoring and evaluating digital health interventions: A practical guide to
conducting research and assessment. OMS, 2016.
[3] P. Kostkova. Grand challenges in digital health. Frontiers in Public Health, Año 3, No. 134, 2015. doi:
10.3389/fpubh.2015.00134
[4] J. Rodrigo, J. Sevil, J. Julián, E. Generelo and R. Pérez. Implementación de las tecnologías de la información y la
comunicación en la promoción de hábitos saludables. Servicio de Publicaciones, 2019.
[5] C. Cantillo, M.Roura and A. Sánchez. Tendencias actuales en el uso de dispositivos móviles en educación. La educación
digital Magazine. 147, pp. 1-21, 2012.
[6] C. Cantillo, M.Roura and A. Sánchez. Tendencias actuales en el uso de dispositivos móviles en educación. La educación
digital Magazine. 147, pp. 1-21, 2012.
[7] M. Hernández-Ávila, J.P. Gutiérrez and N. Reynoso-Noverón. Diabetes mellitus en México: El estado de la epidemia.
Salud Pública de México, 55, 2, pp. 129-136, 2013.
[8] A. Burgos and H. Echeverry. Estado del Arte del Uso de Aplicaciones en Dispositivos Móviles en el Área de la
Telemedicina. Universidad tecnologia de Pereira, 2012.
[9] R. S. Pressman. Ingeniería de Software un enfoque práctico. Mc Graw Hill, 2002.
104
El reto de enseñar tecnologías de alto desempeño en modalidad virtual
derivado de la contingencia sanitaria. Caso de estudio: Licenciatura en
Ingeniería en Ciencias Computacionales del Centro Universitario de
Tonalá, Universidad de Guadalajara
José Guadalupe Morales Montelongo1
, Berenice Martínez Álvarez2
,
Edna Minerva Barba Moreno3
, Jorge Lozoya Arandia4
Centro Universitario de Tonalá, Universidad de Guadalajara, Av. Nuevo Periférico No. 555 Ejido San José
Tateposco, C.P. 45425, Tonalá, Jalisco, México.
Jose.Gpe.Morales@academicos.udg.mx1
, Minerva.Barba@academicos.udg.mx3
Jorge.LArandia@academicos.udg.mx4
Centro Universitario de Ciencias Sociales y Humanidades, Universidad de Guadalajara, Guanajuato No.
1045. C.P. 44260. Col. Alcalde Barranquitas, Jalisco, México.
berenice.malvarez@academicos.udg.mx2
Resumen. El proceso de enseñanza aprendizaje en tiempos de contingencia sigue representando un reto para
integrar elementos que permitan dinamizar nuestros cursos. Por ello, en este trabajo se presentan, en un ejercicio
de compartir experiencias, las diversas adaptaciones que se realizaron al curso Seminario de Tecnologías de Alto
Desempeño, de la Licenciatura en Ingeniería en Ciencias Computacionales, en el ciclo escolar 2021A.
Abstract. The teaching-learning process in the current emergency challenged the teachers in order to integrate
dynamics and new elements into current courses. Therefore, this work will share the adaptations that were made
to the High-Performance Technologies Seminar subject at the BS in Computer Science Engineering during
2021A cycle.
Palabras clave: Big Data, tecnologías de alto desempeño, HPC, Google Classroom, algoritmos, MOOC, rúbricas
para la evaluación.
Área de conocimiento: Otros temas de interés: gestión de la continuidad académica ante el escenario de
confinamiento global.
1. Introducción
La Universidad de Guadalajara (UdeG) es una institución pública de educación superior que ofrece un gran
abanico de programas educativos de pregrado y posgrado a través de su Red Universitaria, la cual se conforma
por Centros regionales y metropolitanos.
Entre ellos, se encuentra el Centro Universitario de Tonalá (CUTonalá) que se caracteriza por ser un campus
multitemático, y que ofrece alternativas de estudio de educación superior para la población al oriente del área
metropolitana de Guadalajara.
Una de las líneas que busca desarrollar este Centro Universitario es la de innovación tecnológica. Por ello,
ofrece entre sus programas académicos, la Licenciatura en Ingeniería en Ciencias Computacionales (LICC),
adscrito al Departamento de Ciencias de la Información y Desarrollos Tecnológicos.
Programa que se orienta al desarrollo de competencias para el diseño y desarrollo de sistemas de información,
así como para el procesamiento y análisis de grandes volúmenes de información, entre otros.
Por ello, el proceso de enseñanza de las diferentes unidades de aprendizaje de este programa de estudio es muy
rico en el uso y aprovechamiento de las tecnologías. Sin embargo, sigue representando un reto al ingenio y
creatividad de los académicos en un escenario donde sigue vigente la contingencia sanitaria mundial.
105
Lo antes mencionado generó que el ciclo escolar 2021A fuera necesario continuar con los trabajos de manera
a distancia para aminorar los contagios entre la comunidad académica y estudiantil de esta casa de estudios.
Dicha situación sigue retando nuestra práctica docente y visión en pro de la enseñanza para integrar nuevos
elementos y actividades a nuestros cursos, en busca de facilitar el proceso de enseñanza aprendizaje.
Motivo por el cual, el presente trabajo mostrará los diferentes recursos y esfuerzos implementados en la materia
de Seminario de Tecnologías de Alto Desempeño para dinamizar un poco más el proceso de enseñanza e ir un
poco más allá de estudiar y entregar tareas de manera individual en un contexto de distancia social.
2. Unidad de aprendizaje
El programa de la Licenciatura en Ingeniería en Ciencias Computacionales (LICC) ofrece diferentes unidades
de aprendizaje orientadas al desarrollo de competencias en los estudiantes con la intención de que analicen,
diseñen y desarrollen sistemas de información, así también en el uso de herramientas que posibiliten el análisis
y procesamiento de grandes volúmenes de información, entre otros.
Algunas de las temáticas que se desarrollan en el programa de Seminario de Tecnologías de Alto Desempeño
son las siguientes:
1. Introducción al Big Data
2. Introducción a Hadoop
3. El sistema de archivos HDFS
4. Programación con MapReduce
5. Apache Spark
2.1. Diagnóstico del entorno de los estudiantes al inicio del curso
La aún vigente contingencia sanitaria sigue impactando tanto en la economía como en la salud física y
emocional de nuestros estudiantes y sus familias.
Por ello, como profesores debemos sensibilizarnos un poco más para conocer si nuestros alumnos se encuentran
en alguna situación particular que pueda demeritar su esfuerzo para realizar las actividades en sus diferentes
cursos.
En ese sentido, previo al inicio de las actividades programadas para este curso, se preparó y aplicó la encuesta
“Diagnóstico del entorno, acceso digital y experiencia en línea de los estudiantes” a los alumnos matriculados
en el curso Seminario de Tecnologías de Alto Desempeño, grupo que ese ciclo escolar se caracterizó por ser
numeroso y que prácticamente todos los alumnos participaron, con lo que se contó con 29 respuestas.
Dicho instrumento fue diseñado para identificar las condiciones del área de estudio y las características de
conectividad en los hogares de los estudiantes, así como las características y capacidades del equipo de cómputo
que utilizarían para el presente curso. Además de conocer la dedicación y responsabilidades que tienen los
alumnos más allá de los académicos. Finalmente, su percepción e impacto que ha representado el trabajo virtual
en este entorno de contingencia sanitaria.
Los resultados de dicha encuesta arrojaron que más del 48 por ciento de los estudiantes, además de atender sus
deberes escolares tienen un empleo de medio o tiempo completo. Así también, un poco más del 30 por ciento
también participa de manera importante en las responsabilidades de su hogar.
Adicional a ello, se les consultó a los alumnos algunas de las acciones que realizarán durante el ciclo escolar
para atender sus diversas actividades. Entre las acciones que mencionaron se encuentra el de gestionar mejor
sus tiempos, otros mencionan que el tratar de adelantar tareas sería de utilidad para ellos para así aminorar la
tensión cercana al fin del ciclo escolar.
Otros mencionaron también que debido a que ya se tiene casi un año trabajando de esta manera, se sienten con
más experiencia para realizar sus cursos a distancia en este ciclo escolar. Algunos otros mencionaron no sentirse
preparados del todo, pero aún así darían su mejor esfuerzo.
Por otra parte, se consultó respecto de la habilitación tecnológica del estudiante en su propio hogar para realizar
las actividades del presente curso. Entre los aspectos consultados se encuentra la disponibilidad de una
conexión de internet, a lo que todos refieren contar con ella, siendo en la mayoría servicio en casa, a través de
WiFi o cable directo al router.
En cuanto a los dispositivos tecnológicos los alumnos indicaron contar con equipo de cómputo de escritorio y
otros equipo de cómputo portátil. Todos manifestaron tener un celular propio y menos del 3 por ciento indicaron
106
contar con una tableta.
Dada la naturaleza del curso, es necesario emplear herramientas que demandan capacidades mínimas de 8GB
de memoria RAM, por ello, es de suma importancia conocer las características y capacidades de los equipos
de cómputo que utilizarán en la asignatura. Se obtuvo que más del 40 por ciento tiene instalado en su equipo
de cómputo el sistema operativo Windows con 8GB de RAM o menos. Un poco más del 30 por ciento mencionó
contar con más de 8GB de RAM bajo el sistema Windows. Y menos del 3 por ciento cuenta con Linux con
8GB de RAM o menos. El resto mencionó tener equipos con menos de 4 GB.
Plataforma < 4 GB RAM 4-8 GB RAM >8 GB RAM
Windows 17% 44% 34%
Linux --- 3% ---
Finalmente, otro aspecto consultado fue el de si los estudiantes habían tomado algún curso vritual en los últimos
3 meses y se encontró que el 34 por ciento mencionó que sí por lo menos un curso. El 31 por ciento mencionó
haber iniciado uno, pero sin concluirlo y poco más del otro 34 por ciento mencionó que no tomó ningún curso
por internet.
Los aspectos antes consultados son prioritarios identificar las condiciones de conectividad y entorno digital
necesarias para que puedan realizar las diferentes actividades diseñadas para el curso de la asignatura de
Seminario de Tecnologías de Alto Desempeño.
La asignatura requiere un equipo de cómputo con altas prestaciones de memoria RAM (8GB), por lo que este
diagnóstico permite orientar al profesor acerca de las alternativas que serán necesarias para que los estudiantes
logren concretar las actividades y prácticas que así lo requieren. Entre otras, por ejemplo, motivar gestionen el
préstamo de un equipo con compañeros, familiares o terceros. Asimismo, para quienes no concretan dicha
alternativa, se consideró un esquema que se detalla más adelante.
2.2. Adaptaciones al curso en el ciclo escolar 2021A
La enseñanza en tiempos de contingencia sanitaria sigue representado un reto tanto para académicos como para
estudiantes. Es por ello, que se ha convertido en una búsqueda constante el integrar nuevos elementos y
herramientas que los procesos de aprendizaje y de cómo se presentan los diversos contenidos de los cursos.
En ese sentido, se detallan en seguida las adaptaciones y consideraciones implementadas en el curso referido:
a) Curso en Google Classroom
Los contenidos se organizaron en las siguientes temáticas:
 Presentación de la asignatura;
 Preparativos del curso;
 Módulo 1 - Introducción al Big Data;
 Módulo 2 – Introducción a Hadoop;
 Módulo 3 - El sistema de archivos HDFS;
 Modulo 4 - Programación con MapReduce;
 Módulo 5 - Apache Spark;
 Actividades de Cierre.
Sección: Preparativos del curso
En uno de los materiales de contexto publicado en el Google Classroom, que se encuentra en la sección de
preparativos, se brindaron preguntas para la reflexión respecto del procesamiento Big Data para que con ello
dimensionen la importancia, uso e impacto de las Tecnologías de Alto Desempeño en la actualidad.
Algunas de las cuestionamientos planteados fueron: ¿Te has preguntado respecto de cómo se logró una vacuna
para COVID-19 en menos de 10 meses? ¿Cómo se puede revisar 1TB de radiografías en minutos para
diagnosticar pacientes con ese virus?
Después de ello, se solicita que se registren en el sitio web Coursera, dado que se asociarán las actividades de
esa plataforma con las tareas del presente curso.
107
Módulos del curso
Seguido de ello, se presentan los módulos en donde se brindan diversos contenidos de las temáticas particulares
para cada una de ellas.
En dicho espacio se brinda una sugerencia de visualización de los materiales, así como una breve presentación
del tema, también los recursos incluyen videos de YouTube, sitios web con temáticas relevantes y artículos
académicos. Aunado a ello, se publicó la grabación de la sesión por videoconferencia al inicio del ciclo para
su consulta posterior por parte de los estudiantes.
Adicional a ello, se diseñaron diferentes tareas, las cuales fueron numeradas, tituladas, y se integraron
elementos para que el estudiante identifique lo que necesita para realizar la tarea, cuales son los entregables
esperados, así también se le brindó una descripción de la actividad, así como los casos en los que se podría
invalidar el trabajo (ej. plagio). Y finalmente, una rúbrica con los criterios para cada tarea.
b) Rúbricas
El objetivo del diseño e integración de rúbricas en las diferentes tareas en este curso, es facilitar que previo a
la entrega, el estudiante realice un ejercicio de auto revisión para que de antemano conozca si su producto
cumple con los elementos solicitados, y si no conozca los puntajes a los que será acreedor.
Algunos de los elementos considerados en las rúbricas son la entrega puntual del producto, el adecuado uso de
ortografía y redacción. Asimismo, para los cuesitonarios considera si el entregable incluye las respuestas
solicitadas, de manera que demuestren una comprensión clara y cobertura de los temas abordados en el trabajo.
Otras rúbricas fueron integradas para la entrega exámenes aprobados y avances en la plataforma Coursera, así
como de las prácticas planteadas en el curso de dicha plataforma.
El esquema de entrega puntual se indicaba lo siguiente: (1) entrega en el plazo indicado puede lograr hasta 100
puntos; (2) entrega demorada menor a 7 días, hasta 95 puntos; (3) entrega demorada de 7 o más días, hasta 90
puntos.
Esto propició que los estudiantes tuvieran la motivación de entregar alrededor del plazo fijado; por otra parte,
tener una reducción poco significativa de puntaje en el resto del semestre brindó una alternativa para la entrega
de tareas de muchos estudiantes que en la mitad del curso lograron ponerse al corriente sin grandes afectaciones.
c) Curso en Coursera
Con la intención de ampliar los conocimientos en los temas de este curso, así como de aprovechar las ventajas
de los MOOC, se integró, para desarrollo en paralelo, el curso “Hadoop Platform and Application Framework”
108
impartido en Coursera por el Centro de Supercómputo de la Universidad de California en San Diego.
Dicho curso también contribuye al desarrollo del perfil de internacionalización de los estudiantes dado que los
contenidos fueron desarrollados en idioma inglés, por lo que los alumnos atienden contenidos de esta lengua
de manera transversal.
El estudiante debía revisar y realizar las actividades diseñadas y dispuestas en la plataforma Coursera, y de
manera paralela éstas se complementan con actividades y tareas en la plataforma de Classroom, para así
fortalecer ambas actividades y afianzar los conocimientos que se adquieran de esas prácticas.
d) Charla con experto invitado
En el presente curso se integró una charla con un ingeniero de Big Data, con la intención de brindar a los
estudiantes la experiencia de un experto en el tema. Además de conocer algunos de los proyectos en los que
trabajó y en los que se implementaron tecnologías de Big Data.
e) Herramientas adicionales e integradas en el curso
En el curso se aborda la interacción con las herramientas Apache Hadoop y Apache Spark, que son de
licenciamiento libre, y permiten programar aplicaciones distribuidas para procesar grandes volúmenes de datos
(big data).
Una versión de estas herramientas están integradas en una máquina virtual (VM, del inglés Virtual Machine)
utilizada en el curso en Coursera, misma que corresponde a una distribución Linux de Cloudera para el
entrenamiento de personas en temáticas de BigData.
Para que el estudiante interactúe con la VM es necesario ejecutarla en VirtualBox, aplicación que permite la
ejecución de máquinas virtuales en los equipos de cómputo de los estudiantes para hacer las prácticas indicadas.
f) Facilidad para acceder a un equipo remoto para resolver prácticas de VM
Debido a que la dinámica y naturaleza del curso requieren realizar algunas actividades con el apoyo de una
Virtual Machine en sus propios equipos de cómputo, y de acuerdo a la encuesta de que se aplicó a la mitad del
ciclo, se detectó que para algunos estudiantes esta actividad representó un reto tecnológico, dado que sus
equipos de cómputo no tenían la capacidad para realizar las prácticas de VM por disponer de equipos de
cómputo con insuficiente memoria RAM. Para resolver esta situación, la mayoría de los estudiantes lograron
conseguir temporalmente equipos de cómputo con las capacidades requeridas. Sin embargo, algunos no
lograron resolver esta situación, representando una afectación importante a sus entregas.
Por ello, como un esfuerzo y servicio adicional para brindar elementos suficientes para que los estudiantes
puedan realizar sus diversas prácticas, se preparó un equipo de cómputo adquirido con recursos de PRODEP
con memoria suficiente para ejecutar la VM. Así, se ideó el uso en línea por parte de los estudiantes en la
situación antes referida, quienes ahora podrían realizar las prácticas de VM. Entre las reglas se indicó solicitar
su uso con 48 horas de anticipación y se sujetó a una agenda de disponibilidad. Esta facilidad fue aprovechada
y permitió superar esta limitante, avanzando exitosamente en la entrega de las prácticas referidas.
g) Encuestas para conocer la percepción y avance de los estudiantes
En el curso referido se integraron diferentes encuestas al inicio, a la mitad del curso y al final del mismo para
conocer la percepción de los alumnos, tales como la organización del curso, su nivel de motivación y cómo
resolvieron ciertas problemáticas técnicas en ejercicios específicos.
Estas encuestas de seguimiento han sido un elemento enriquecedor en las adecuaciones que se han realizado al
presente curso, dado que ha brindado información clave para poder atender las necesidades de los estudiantes
y así brindar contenidos y actividades más atractivas que nutran el proceso de aprendizaje de los alumnos.
La primera encuesta, como ya se mencionó al inicio de este trabajo, brindó un panorama del acceso tecnológico
y de conectividad de los estudiantes, así como algunas de sus responsabilidades en sus hogares, adicionales a
las académicas.
El segundo instrumento se aplicó casi a la mitad del curso con la intención de conocer cómo ha sido el nivel de
esfuerzo que les ha representado a los alumnos hasta el momento de la consulta y si han tenido alguna dificultad
con el rendimiento de sus equipos de cómputo para ejecutar los diversos algoritmos solicitados en las
actividades.
La última encuesta se aplicó al final de curso para conocer la percepción de los estudiantes en cuanto al nivel
109
de conocimiento que tenían ellos antes del curso y cuál es el que ellos consideran que tienen al concluir el
curso. Así también como saber su impresión de los materiales, contenidos, curso y seguimiento académico
brindado durante el curso.
h) Canales adicionales de comunicación
Finalmente, para mantener una constante comunicación en estos tiempos de confinamiento se creó un grupo
Whatsapp. Ello en busca de ampliar la interacción con los estudiantes, así como lograr una percepción de
atención oportuna por esta vía. Este aspecto que se convierte en un reto importante, ya que impone el esfuerzo
de responder siempre dentro de un plazo razonable. Asimismo, si no se cuenta con respuesta inmediata, es
importante indicar acerca del tiempo estimado para tenerla, o bien del seguimiento que se le dará.
Cabe resaltar, que los alumnos de manera proactiva, respondian algunas dudas planteadas por sus compañeros,
incluso antes de que el profesor las atendiera, lo que motivó la interacción y apoyo al interior del grupo.
5 Conclusiones y prospectivas
Los elementos antes mencionados han sido el resultado de una búsqueda constante por brindar alternativas que
faciliten el proceso tanto de la enseñanza como el del aprendizaje de las tecnologías de alto rendimiento. Ello
ha implicado investigación y capacitación constante por parte de su profesor, quien se motiva por integrar
alternativas de aprendizaje innovadores en sus cursos.
Por ello, al cuestionar a los estudiantes su perspectiva respecto de sus conocimientos adquiridos al finalizar el
curso, la mayoría considera que se encuentra en un promedio satisfactorio a excelente.
En cuanto la consulta de las habilidades y dedicación del profesor para atender sus inquietudes académicas
considera que fue bueno a muy bueno. Así como de estar de acuerdo al considerar que los materiales, las
instrucciones de las actividades, fueron pertinentes y claros.
Aunado a ello, los estudiantes consideran como ventaja el que se permitiera la entrega extemporánea de tareas,
aun cuando esto implicaba una pequeña penalización en la calificación del producto.
Derivado de este fenómeno donde se identifica una larga curva de entregas con demora, se valora pilotear en
el nuevo ciclo un ajuste al esquema para motivar la entrega sin grandes penalizaciones dentro del plazo de 21
días, de manera que permita una planeación y dedicación del trabajo del estudiante en un entorno que le
demanda atender un empleo y responsabilidades familiares.
Así también, los estudiantes consideraron que el aprender Big data fue muy interesante, así como las bases
Hadoop.
Cabe resaltar que la inciativa de integrar a la presente asignatura un curso de Coursera fue previo al convenio
que actualmente se logró entre la Universidad de Guadalajara y dicha plataforma de aprendizaje.
Aspecto que seguramente beneficiará a muchos académicos y estudiantes universitarios, dado que en dicha
plataforma se ofrecen cursos provenientes de diversas universidades y que además les brinda la opción de tomar
un curso al año con una certificación reconocida por Coursera.
Finalmente mencionar que como elemento de mejora se considera el integrar más alternativas herramientas
para el manejo masivo de datos en clusters en los próximos ciclos escolares.
Referencias
[1] Oferta académica del Centro Universitario de Tonalá. Universidad de Guadalajara. Disponible en
http://www.cutonala.udg.mx/oferta-academica
[2] Plan de Desarrollo Institucional 2019-2025. Universidad de Guadalajara. Disponible en
https://www.udg.mx/sites/default/files/adjuntos/pdi_2019-2025.pdf
[3] Organigrama del Centro Universitario de Tonalá. Universidad de Guadalajara. Disponible en
http://www.cutonala.udg.mx/centro/organigrama
[4] González, M. (01 Junio 2021). Ofrece Coursera más de seis mil cursos gratuitos. Gaceta UdeG.
http://www.gaceta.udg.mx/ofrece-coursera-mas-de-seis-mil-cursos-gratuitos/
110
Uso de Realidad Aumentada como estrategia en el Aprendizaje de
Historia de México en Secundaria
Bryan Ricardo Berumen Espinoza 1
, Abraham López Nájera 2
, Cynthia Vanessa Esquivel Rivera 3
, Alejandra
Mendoza Carreón 4
Universidad Autónoma de Ciudad Juárez - Campus Sur, Ave. José Jesús Macias Delgado 18100, Ciudad
Universitaria, Cd. Juárez, Chih., 32000. México
1al150389@alumnos.uacj.mx, 2abraham.najera@uacj.mx, 3cyesquiv@uacj.mx, 4alemendo@uacj.mx
Abstract. This work describes the development of an augmented reality mobile application for which the
objective is to be a complement to the teaching and learning process of the History of Mexico class in
second grade of middle school. The images that appear in the student's textbook are the targets that, when
focused by the camera of the mobile device, activate the virtual content within the application. This mobile
application developed through an autonomous architecture offers educational activities that enrich the
content of the subject.
The results of the evaluation applied to the students of the groups studied, indicated that those students
who made use of the mobile application obtained a better grade average in the exam they presented. In
addition, the ratings of this experimental group remained mostly within an average range, indicating that
the mobile application standardizes the knowledge acquired.
Keywords: Augmented Reality, Educational Software, History of Mexico, Basic Education, Mobile
Application.
1 Introducción
El aprendizaje de la historia requiere un nivel de pensamiento abstracto muy alto que puede ser
complicado de alcanzar. Diversos autores afirman que hay una gran dificultad para comprender el
tiempo y los hechos históricos dado que la noción que el ser humano puede tener de estos tiempos
no supera las cuatro o cinco generaciones, limitando su percepción [1].
Por lo anterior se desarrolló una aplicación móvil de realidad aumentada, para ser utilizada como
parte del proceso de enseñanza en la clase de Historia de México en segundo grado en la escuela
Secundaria Técnica número 91, ya que se detectó que en el ciclo escolar 2018-2019 la materia con
peor aprovechamiento escolar en los tres grados fue Historia. Mediante una metodología de
desarrollo en cascada, se realizó la aplicación móvil que fue nombrada como “IOTOPIA”.
La aplicación móvil está enfocada exclusivamente en el contenido temático del tercer trimestre de la
materia de Historia de México para segundo grado de secundaria, según el programa educativo actual
y funcionará únicamente bajo el sistema operativo de Android, como mínimo en su versión 4.1 “Jelly
Bean”. Los marcadores serán tomados del libro Historia 2 de la colección Travesías en su primera
edición bajo el sello editorial Ediciones Castillo, distribuido gratuitamente por el gobierno federal a
los estudiantes de escuelas públicas, por lo que el uso de la aplicación se restringirá a ser
complemento únicamente de este libro.
2 Estado del arte
Seis millones y medio es la cantidad de alumnos, entre 12 y 15 años de edad, que estudian la
Educación Secundaria en México [2], y todos estos cursan la materia de Historia en cuatro clases de
45 a 50 minutos a la semana. Como auxiliar en este aprendizaje, los alumnos reciben un libro de texto
distribuido de manera gratuita por el gobierno y éste cumple con la función de ser su manual de
111
trabajo.
El aprendizaje de la materia de Historia en segundo grado de secundaria, en el caso concreto de la
Escuela Secundaria Técnica 91 se encuentra en decadencia, los resultados de las evaluaciones en la
materia son cada vez menos satisfactorios, el interés de los alumnos hacia la asignatura es muy
mínimo debido, entre otras cosas, a la poca aplicación que tienen estos conocimientos en su día a día,
y los maestros encargados del programa siguen trabajando bajo el mismo método de enseñanza desde
hace años. En esta era tecnológica, en la que los adolescentes pasan la mayor parte de su tiempo en
dispositivos tecnológicos resulta muy impactante que se sigan utilizando métodos de enseñanza con
base en monografías, planillas y relatos.
Existen pocas aplicaciones que funcionen como auxiliares en el aprendizaje de Historia, a
continuación, se enlistan algunos de los principales y más utilizados según su categoría.
A. De tipo calendario
Con este tipo de aplicaciones es posible tener un panorama anual de las efemérides y un rápido acceso
a éstas, basado en la búsqueda de alguna fecha en específico. Ejemplos de estas aplicaciones son:
Calendario histórico - Eventos y Concursos desarrollada por Alexandru C. Ene; Historia2 distribuida
por UniCom Technology y Today.In.History desarrollada por Manuel Posadas concretamente para
IOS.
B. De actividades didácticas
Mediante estos instrumentos de aprendizaje se busca que el usuario se divierta mientras intenta
recordar y reafirma sus conocimientos en el área de Historia. Algunas de las aplicaciones que existen
en el mercado de este tipo son: El Juego de Historia HD, disponible para descarga gratuita por Diana
Uribe; History for Kids, un divertido juego didáctico y completamente audiovisual desarrollado por
Planet Factory Interactive, y también Quiz de Historia del Mundo por Peaksel.
C. De juegos y recursos audiovisuales
Concretamente en el caso de Historia de México, se cuenta únicamente con dos aplicaciones móviles
que, mediante juegos, videos y actividades captan la atención del usuario para mejorar su aprendizaje.
La primera aplicación es Bandera de México, una aplicación dirigida a los estudiantes más pequeños
quienes quieren aprender sobre la independencia de México. Por otro lado, la mejor opción hasta el
momento, es Detectives MX, una aplicación desarrollada en 2015 por el Consejo Nacional para la
Cultura y las Artes (CONACULTA).
La posibilidad de reproducir hechos históricos del pasado es prácticamente nula y esto hace que la
naturaleza de la materia como ciencia social exija el uso de pensamiento abstracto a un nivel muy
alto, que para alumnos de secundaria puede resultar difícil de alcanzar, a diferencia de las ciencias
exactas que mediante experimentos o cálculos permiten consultar y verificar los resultados.
Otra situación complicada en el estudio de esta ciencia social radica en el aprendizaje de conceptos
históricos, debido a que estos son términos que no se utilizan en el lenguaje cotidiano. Tal es el caso
de palabras como: colonialismo, monarca, aristócrata, en las que los alumnos generalmente tienen
una referencia de lo que significan estas palabras, pero lo desconocen en su totalidad [3].
Otro punto importante para la ejecución de este proyecto se encuentra en el valor cívico que esta
aplicación móvil de tecnología de realidad aumentada puede aportar a los alumnos de secundaria. Es
importante que los adolescentes se sientan atraídos e interesados en lo que a Historia refiere, dado
que el estudio de nuestros antepasados permite saber de dónde parte todo, por qué es de alguna
manera y hacía donde se dirige la sociedad. El correcto aprendizaje de la materia permitirá formar
ciudadanos conscientes y responsables con su
país.
112
3 Metodología usada
El desarrollo de la aplicación se describe con base en cada una de las fases de desarrollo de la metodología en
cascada, la cual ha sido elegida por su naturaleza secuencial que permite desarrollar un producto de software
con base en el ciclo de vida de éste.
3.1 Requisitos
Perspectiva del producto: la aplicación móvil de realidad aumentada fue desarrollada para ser utilizada como
un complemento al libro de texto utilizado para la materia de Historia de México II en secundaria. Las imágenes
del libro son los activadores del contenido didáctico en tercera dimensión, relacionados al tema que se está
aprendiendo en la clase. Además, incluye un glosario para las palabras clave y/o difíciles de entender durante
la lección.
Especificaciones de requerimientos: los requerimientos esperados por los futuros usuarios de la aplicación
móvil fueron recabados mediante entrevistas con el docente a cargo de la materia de Historia de México II y
algunos estudiantes de la secundaria en cuestión. Estas especificaciones fueron propuestas en orden para
implementar una nueva herramienta de enseñanza-aprendizaje sin alejarse del enfoque del modelo educativo
actual de la Secretaría de Educación Pública.
En la siguiente lista, se encuentran las especificaciones de la aplicación educativa esperadas por el maestro que
imparte la materia, a quien se denominará cliente.
1. Las funciones de la aplicación no deben representar un distractor para los alumnos y tampoco
permitirán que se pierda el enfoque de aprendizaje dentro del salón de clases.
2. Contenido audiovisual abundante y preferentemente animado.
3. Material sencillo y que no extienda en exceso el contenido temático de la materia o genere más dudas
al respecto.
4. El uso de la aplicación móvil debe motivar el autoaprendizaje y la investigación en los alumnos.
5. Funciones intuitivas, cuyo uso no implique que el docente tenga que estar ayudando a los alumnos.
Los alumnos, quienes son los usuarios objetivo del software, también externaron sus expectativas de la
aplicación móvil y entre sus requerimientos coinciden en su mayoría en los siguientes puntos:
1. Creación de perfil o avatar.
2. Sistema de puntaje y/o actividades que permitan competir académicamente entre ellos mismos.
3. Diseño llamativo y con los gráficos suficientes para que no aparente ser una página web con exceso
de información.
4. Contenido entretenido que haga interesante la materia.
Funciones del producto: con base en las especificaciones esperadas por el cliente y los usuarios de la aplicación,
así como también el objetivo principal del presente proyecto, fueron definidas las funciones del software que
se enlistan a continuación.
 Consulta de términos y conceptos específicos de la materia
 Realización de actividades didácticas
 Obtención de insignias al completar las actividades
 Visualización de contenido multimedia
 Consulta de marcadores activos de su libro de texto
 Escáner de marcadores/imágenes
Restricciones
 El dispositivo en el que se instalará la aplicación móvil de realidad aumentada debe contar con cámara
fotográfica funcional para detectar correctamente los marcadores y activar el contenido virtual.
 La aplicación móvil funcionará únicamente bajo el sistema operativo de Android, como mínimo en su
versión 4.1 “Jelly Bean”. No hay soporte para otros sistemas operativos móviles o versiones
anteriores.
113
 El espacio mínimo de almacenamiento necesario en el dispositivo móvil debe ser de 200 MB libres.
 No es necesario contar con una conexión a internet para la funcionalidad de la aplicación, debido a su
arquitectura.
 Los marcadores serán tomados del libro Historia 2 de la colección Travesías en su primera edición, el
cual es distribuido bajo el sello editorial Ediciones Castillo. Por lo que el uso de la aplicación se
restringirá a ser complemento únicamente de este libro.
3.2 Diseño
Arquitectura de la aplicación
Para el desarrollo de la aplicación se utilizó una arquitectura de sistema autónomo (Figura 1) debido
a que es el mecanismo ideal para sistemas de realidad aumentada en entornos pequeños y delimitados,
haciendo uso de recursos propios de la aplicación sin necesidad de acceder a internet o a un servidor
externo para visualizar su contenido [4]. La arquitectura interna de esta aplicación de realidad
aumentada es conformada por los siguientes módulos:
1. Captura de escenario.
2. Tratamiento de imagen.
3. Reconocimiento de imagen.
4. Mapeo de patrones.
5. Fusión de contenido virtual y real.
6. Visualización.
Figura 1. Sistema Autónomo de Realidad Aumentada
Diagrama de contexto
La Figura 2 ilustra de manera general el funcionamiento de la aplicación móvil de realidad aumentada. En ésta
el maestro impartirá a los alumnos de manera tradicional su clase utilizando el libro de texto correspondiente
hasta encontrarse con un marcador dentro de la lección. Los alumnos, mediante la aplicación, escanearán la
imagen para que sobre ella se active el contenido virtual correspondiente que puede ser alguna actividad o
material audiovisual.
114
Figura 2. Esquema de contexto de la aplicación móvil
Diseño funcional
Como puede observarse en la Figura 3 la aplicación móvil cuenta con cuatro secciones para
provecho del estudiante. Su función principal es el escáner de imágenes o marcadores bajo la
tecnología de realidad aumentada mostrando modelos 3D y actividades didácticas referentes al
contenido temático. Incluye un glosario con la definición más concisa y entendible posible de las
palabras que pudieran representar difíciles de entender dentro de las lecturas, para los estudiantes.
Como apoyo, el catálogo de marcadores también forma parte de la aplicación como guía para el
escaneo de imágenes. Por último, cuenta con una sección de información sobre la aplicación,
incluyendo un tutorial de uso de la misma.
Figura 3. Diagrama de actividades de la aplicación móvil
Diseño de interfaz de la aplicación móvil
El nombre elegido para la aplicación fue “Iotopía”, esta palabra griega (ἱστορία) es la raíz etimológica
de la palabra “Historia”, que es un término que hace referencia al conocimiento adquirido mediante
investigación o relato [5]. Una vez elegido el nombre y con ayuda de recursos gráficos gratuitos
disponibles en www.freepik.com se diseñó el logotipo de la aplicación móvil para utilizarlo como
ícono principal y dentro de la aplicación misma (ver Figura 4).
115
Figura 4. Logotipo de aplicación móvil de realidad aumentada
Figura 5. Inicio de la aplicación móvil
Los elementos gráficos son parte fundamental en el aprendizaje electrónico, eLearning. La saturación de
elementos o el uso excesivo de un color puede generar factores psicológicos y emocionales que desfavorecen
el proceso de enseñanza y aprendizaje [6]. El concepto gráfico de esta aplicación de realidad aumentada está
basado en el minimalismo y la abstracción, buscando que el contenido sea lo más claro posible, eliminando
cualquier distracción y manteniendo el enfoque en lo que es verdaderamente importante. El minimalismo,
además de ser tendencia actual en el desarrollo web [7], debido a sus características requiere de menos recursos,
carga más rápido el contenido y ofrece una mejor compatibilidad y adaptación a los diferentes tamaños de
pantalla.
3.3 Implementación
Desarrollo de base de datos para marcadores
El portal de desarrollo Vuforia, entre sus funcionalidades ofrece a los desarrolladores la posibilidad de crear y
gestionar bases de datos de marcadores, en línea para proyectos de realidad aumentada. Esta base de datos, una
vez creada puede ser descargada en un formato compatible con otros entornos de desarrollo como Unity,
además de que se le asocia de forma automática una licencia para su uso en aplicaciones web. Con base en el
catálogo de marcadores creado, se procedió a subir las imágenes al administrador de marcadores de Vuforia.
Posteriormente, mediante una escala de 1 a 5 estrellas, Vuforia hace saber al desarrollador qué nivel de
seguridad hay de que tal marcador será detectado por la cámara web del dispositivo donde se ejecute la
aplicación.
116
Programación de la aplicación móvil
Como se ha mencionado previamente, el IDE seleccionado para programar la aplicación fue Unity,
el cual cuenta con diversas herramientas especializadas concretamente en el desarrollo de
aplicaciones móviles en dos y tres dimensiones. Este software se apoya de la programación en
lenguaje C# para codificar las funciones más concretas y llevar a cabo actividades específicas dentro
de la aplicación.
Integración de componentes para realidad aumentada
La función principal de la aplicación es la realización de actividades didácticas a través de la
tecnología de realidad aumentada. Lograr esta tecnología requiere de la integración de diversos tipos
de objetos, desde pantallas en dos dimensiones a modelos tridimensionales, así como también la
implementación de la base de datos de marcadores que previamente se había creado. En este apartado
del reporte, se describe la integración de cada componente según su clasificación.
Implementación de modelos tridimensionales
Una vez creados los objetos 3D que formarán parte de las actividades, su implementación resultó
muy sencilla. Se importaron todos los modelos al proyecto y posteriormente fueron arrastrados al
espacio geográfico en el que se localizarían, especificando para cuál marcador funcionarán
exclusivamente. Dichos componentes se redimensionaron según la necesidad, todos fueron animados
con el propósito de hacer más dinámica la aplicación y acomodados estratégicamente dentro del
espacio de cada marcador para que pudiera apreciarse cada detalle dentro del dispositivo móvil como
se observa en la Figura 6.
Figura 6. Modelos tridimensionales implementados
Implementación de elementos audiovisuales
Los objetos multimedia son una parte esencial de la aplicación debido a su impacto en el aprendizaje
de los estudiantes. Implementarlos como parte del contenido de realidad aumentada requirió de un
código específico para cada elemento que indica a la aplicación en qué momento y bajo cuáles
condiciones debe comenzar un video, parar una canción, reproducir algún sonido, etc. Estos
elementos audiovisuales fueron añadidos junto con otros modelos 3D ofreciendo marcadores con
distintos tipos de objetos virtuales en ellos como puede verse en la Figura 7 en donde no sólo hay
imágenes, sino también modelos tridimensionales, cuadros de texto y botones en pantalla que al ser
presionados reproducen un sonido.
117
Figura 7. Elementos multimedia implementados
Implementación de actividades didácticas
Las actividades didácticas dentro de la aplicación tienen el conjunto de la mayoría de los
componentes descritos previamente, ya que implican la implementación de imágenes, sonidos,
pantallas en dos dimensiones para resolver actividades, botones y modelos 3D, y la programación
realizada fue dependiente de la naturaleza de cada actividad. Un segundo script se codificó con el
propósito de permitir que las piezas de cada imagen pudieran tener movimiento y rotación mediante
la pantalla táctil de los dispositivos móviles.
El resultado de esta implementación puede verse en el ejemplo de la Figura 8.
Figura 8. Rompecabezas de la aplicación
Otro tipo de actividades dentro de la aplicación son los mapas interactivos. En estos mapas el
estudiante puede ubicar espacios geográficos en escenarios particulares de las lecciones de la materia.
Su codificación resultó más compleja debido a que además del código que se requiere para interactuar
con las partes del mapa, es necesario un código que seccione los mapas según la necesidad y mediante
herencia de objetos, se establece un padre que es el espacio seccionado dentro del mapa y se le asigna
un hijo único, que es la ficha o elemento que corresponde a tal ubicación.
Con los códigos utilizados para implementar mapas interactivos como el ejemplo que se muestra en
la Figura 9, también fue posible adaptar la técnica de programación para lograr otras actividades
didácticas tales como la ilustrada en la Figura 10, donde en tres niveles de dificultad el estudiante
debe indicar el nombre correcto de la combinación entre dos castas de La Nueva España.
118
Figura 9. Mapa interactivo de la aplicación
Figura 10. Actividad de relación
3.4 Pruebas
Con el fin de verificar la aplicación y poder identificar posibles errores para su corrección, se
llevaron a cabo algunas pruebas de funcionalidad que se describen a continuación.
Durante todo el proceso de desarrollo y codificación se estuvieron realizando pequeñas pruebas unitarias de
manera constante. El propósito de estas pruebas es detectar errores en cada módulo del software por separado.
Estas pruebas se llevan a cabo después de la codificación de cada componente para comprobar que la función
principal que se está programando cumpla con su objetivo, independientemente de los otros componentes [8].
Una vez concluida la aplicación, la prueba de humo fue muy importante debido a que, de manera general se
revisó que la aplicación cumpliera con sus funciones principales. Este tipo de pruebas se llevan a cabo para
verificar que las funciones más básicas del software se ejecuten correctamente [9]. Para validación de este
proyecto se comprobó, haciendo uso de la aplicación, que el menú principal dirigía a las pantallas que
correspondía, se verificó también que la cámara detectara las imágenes como marcadores y mostrara el
contenido virtual, entre otras cuestiones. Se realizaron pruebas para la detección de marcadores para activar el
contenido virtual correcto. Aunque esta función puede ser afectada por diversos factores como la calidad de la
cámara del dispositivo móvil o la iluminación en el ambiente donde se escanea el marcador, fue importante
verificar que sólo escaneaba los marcadores indicados y que en cada uno se activara únicamente el contenido
virtual asignado a dicho marcador. Para lograr esta verificación, fueron muy útiles las pruebas de partición de
equivalencias. En este tipo de pruebas de software se agrupan las entradas de datos del sistema según su
similitud en el comportamiento esperado por la aplicación [10]. Para este caso particular, los datos de entrada
son las imágenes o marcadores del libro de texto. Se definieron tres grupos de datos de entrada: imágenes que
sí son marcador, imágenes que no son marcador e imágenes que no son un marcador, pero son muy parecidas
a alguno. Para estas pruebas se obtuvo que para el tercer tipo de imágenes el 20% de las ocasiones que se
escaneaba uno de ellos, aparecía la actividad que le correspondía al otro marcador. Para solucionarlo, se
modificó el contraste de colores en cada imagen y se actualizó en la base de datos eliminando la confusión de
patrones en el escáner de la aplicación.
119
4 Resultados
Para verificar el impacto del uso de la aplicación se trabajó con dos grupos de estudiantes: un grupo controlado
y otro experimental. Debido a la contingencia mundial causada por el virus COVID-19, la educación, durante
el proceso de evaluación de la aplicación, se imparte a distancia mediante plataformas educativas en línea. El
grupo controlado continuó trabajando, aunque en línea, de forma tradicional su clase de historia, mientras que
el grupo experimental utilizó la aplicación móvil como complemento en su clase a distancia. A ambos grupos
se les aplicó una evaluación sumativa; como instrumento de evaluación se aplicó un examen sobre los temas
que abarca el contenido de la aplicación móvil de realidad aumentada, correspondiente al tercer trimestre de
evaluación a nivel secundarias.
El grupo experimental está conformado por un total de 41 alumnos, de los cuales 34 pudieron hacer uso de la
aplicación móvil y presentar su examen, de éstos 34, 17 son hombres y 17 mujeres. Mientras que el grupo
controlado lo componen 39 alumnos y 31 de ellos realizaron el examen, de éstos 31, 14 son hombres y 17
mujeres. Ambos grupos están compuestos por estudiantes de 13 y 14 años que se encuentran cursando el
segundo grado de educación secundaria. La Tabla 1 presenta el resumen de los resultados de la evaluación
sumativa.
Grupo Alumnos Aprobados Reprobados
Promedio
Grupal
Índice de
reprobación
Desviación
Estándar
Controlado 31 27 4 7.225 0.1290 1.82
Experimental 34 29 5 8.176 0.1470 2.01
Tabla 1. Resultados de evaluación sumativa
Como puede observarse, el grupo que hizo uso de la aplicación móvil de realidad aumentada obtuvo en sus
calificaciones un promedio de 8.17, lo cual representa un aprovechamiento escolar mejor que el 7.22 del grupo
controlado que no la utilizó. Sin embargo, también se encontró que el índice de reprobación es más alto por
dos centésimas en el grupo experimental. La Figura 11 y la Figura 12 muestran la desviación estándar que se
presentó en las calificaciones de cada uno de los grupos. Aunque la desviación es similar para ambos grupos
de estudio, en el caso del grupo experimental fue posible observar que el 86% de las calificaciones de los
alumnos se encuentran dentro del rango estándar, diferente al 65% del grupo controlado.
Figura 11. Desviación estándar de grupo controlado
120
Figura 12. Desviación estándar de grupo experimental
Después de realizar el examen, los estudiantes respondieron una encuesta de utilidad y usabilidad
para evaluar cualitativamente la aplicación. En esta encuesta se les plantearon preguntas para conocer
su opinión respecto a aspectos como la utilidad de la información proporcionada, el tiempo de uso
que se le dio, la complejidad en el manejo y navegación, la apariencia, entre otras cuestiones. De
manera general, la aplicación fue evaluada por los usuarios finales con un promedio de 9.3 en una
escala del uno al diez; a la mayoría les gustaría utilizar este tipo de software educativo en otras
materias. El 15% usó poco la aplicación, mientras que el 62% pasó mucho tiempo usándola (ver
Figura 13).
Figura 13. Encuesta sobre la utilización de la aplicación
Los estudiantes indicaron que lo que más les gustó de esta aplicación móvil fue el uso de juegos
como medio de aprendizaje ya que disfrutaron de la diversión y el entretenimiento que les generó.
También expresaron que les pareció interesante la tecnología de realidad aumentada, predominando
en sus comentarios que les parecía muy impresionante ver como aparecía en el dispositivo móvil un
personaje en 3D invitándolos a realizar alguna actividad. Sin embargo, les gustaría que hubiera más
juegos y que tuvieran la posibilidad de modificar la apariencia del personaje principal que aparece
en todas las actividades de la aplicación.
En la
Figura 14 se observa que el 88% de los estudiantes considera que la aplicación les ayudó para resolver
de mejor manera su examen debido a que les aportó mucho aprendizaje, y el 82% considera que
121
aprendió mucho con la aplicación.
Figura 14. Encuestas sobre utilidad de la aplicación y aprendizaje adquirido
En cuanto a la apariencia, la aplicación Iotopía fue evaluada con un promedio de 8.82. En la Figura
15 se observa la opinión de los usuarios y su experiencia en la visualización de contenido; el 32% de
ellos aseguran que los colores utilizados pudieron ser mejores y 65% indican que no tuvieron
problema alguno para ver todo el contenido de la aplicación en su dispositivo móvil.
Figura 15. Encuestas referentes a la apariencia y visualización de contenido
En cuanto a la dificultad de uso (Figura 16), un 76% indica que la navegación dentro de la aplicación móvil les
pareció sencilla y sólo el 15% de los usuarios necesitó ayuda de un adulto o de su maestro para utilizarla
correctamente.
Figura 16. Encuestas sobre facilidad de uso y navegación
Dados los resultados obtenidos de la evaluación, es posible determinar que el uso de la aplicación
móvil mejoró el promedio de aprovechamiento académico, pero también se obtuvo un índice de
reprobación más alto en contraste con el grupo controlado que no utilizó la aplicación. Aunque el
proceso de aprendizaje es muy complejo y pudiera verse afectado por muchos factores externos,
122
resulta interesante que, en la encuesta de utilidad el 15% de los estudiantes indicó que utilizó muy
poco tiempo la aplicación móvil; es posible que, si los estudiantes hubieran interactuado más tiempo
con el contenido de la aplicación de realidad aumentada, seguramente su evaluación hubiese sido
más favorable, como la del resto de sus compañeros que respondieron haber utilizado más tiempo el
recurso tecnológico.
Por su parte, el análisis de la desviación estándar obtenida, aunque se mantuvo muy similar en ambos
grupos, las calificaciones que se encuentran fuera del rango de dispersión son mayores en el grupo
que no utilizó la aplicación móvil, es decir, en este grupo son más los alumnos cuyo rendimiento
académico se encuentra fuera del estándar del grupo con base en su promedio. De esta información
es posible interpretar que el uso de la aplicación móvil ayudó a estandarizar los conocimientos
adquiridos en el grupo experimental, logrando que la mayoría de los estudiantes comprendieran en
un 86% la misma información. A diferencia del grupo controlado en el que 35% de los estudiantes
obtuvieron calificaciones que se quedaron por debajo del rango de desviación o incluso muy por
arriba de éste, demostrando una diferencia notoria en el aprendizaje adquirido.
5 Conclusiones
Se desarrolló con éxito una aplicación móvil bajo la tecnología de realidad aumentada como una
opción complementaria en el proceso de enseñanza y aprendizaje de la materia de Historia de
México en segundo grado de secundaria. Los resultados obtenidos, indicaron que los estudiantes
entre 13 y 14 años de edad se sienten sumamente atraídos a las aplicaciones móviles cuya principal
actividad es el entretenimiento a través de juegos y contenido multimedia. En cuestiones de
diseño, los gustos son muy variados y aunque no se encontró un estándar en este sentido, la
apariencia de la aplicación desarrollada le resultó agradable al 88% de la población muestra.
Mediante el examen aplicado como evaluación al terminar el periodo de uso de la aplicación fue
posible descubrir que, conforme a lo esperado, el grupo que hizo uso de la aplicación como parte
de su proceso de enseñanza presentó un promedio de calificaciones más elevado en comparación
del grupo que no la utilizó. Así como también se encontró que la aplicación permitió mantener un
estándar en el nivel de aprendizaje de la mayoría de los estudiantes. La implementación de este
tipo de proyectos en el ámbito educativo permite a los docentes miembros de las diferentes
academias observar muy de cerca los beneficios que la tecnología puede aportar en los procesos
de enseñanza y aprendizaje. En el caso particular de la institución estudiada en este proyecto, se
estableció el primer contacto con la tecnología como instrumento de aprendizaje dentro de las
aulas y tuvo un impacto positivo en el aprovechamiento escolar.
Referencias
[1] A. Wilschut, Images of Time. The Role of an Historical Consciousness of Time in Learning History, Estados Unidos
de América: Information Age Publishing, 2012.
[2] Secretaría de Educación Pública, «Sistema Interactivo de Consulta de Estadística Educativa,» 2018. [En línea].
Available: https://www.planeacion.sep.gob.mx/principalescifras/. [Último acceso: 29 agosto 2019].
[3] J. Prats, «Dificultades para la enseñanza de la historia en la educación secundaria,» Teoría y Didáctica de las Ciencias
Sociales, nº 005, pp. 71-98, 2000.
[4] H. Marquina Cruz y A. E. España Estrada, Diseño y propuesta de aplicación de realidad aumentada como potenciador
de experiencia de la ruta arqueológica de El Salvador basado en el modelo de contexto y marcadores, El Salvador:
Universidad de Don Bosco, 2014.
[5] F. Coelho, «Diccionario de dudas,» [En línea]. Available: https://www.diccionariodedudas.com/etimologia-de-
historia/. [Último acceso: 18 abril 2020].
[6] J. Canté Garcia, «Psicologia del color aplicada a los cursos virtuales para mejorar el nivel de aprendizaje en los
estudiantes,» Gráfica, vol. 05, nº 09, pp. 51-56, 2017.
123
[7] R. Vazquez, «Forbes,» Forbes Mexico, 19 septiembre 2019. [En línea]. Available: https://www.forbes.com.mx/cuatro-
novedosas-tendencias-en-el-diseno-web/. [Último acceso: 15 febrero 2020].
[8] J. Tuya, I. Ramos Roman y J. Dolado Cosín, Técnicas Cuantitativas para la Gestión en la Ingeniería del Software.,
España: Netbiblo, 2007.
[9] C. Vargas, «Tipos de pruebas funcionales para el aseguramiento de la calidad,» Trycore, [En línea]. Available:
https://trycore.co/transformacion-digital/tipos-de-pruebas-funcionales/. [Último acceso: 02 mayo 2020].
[10] G. Terrera, «Pruebas de caja negra y un enfoque práctico,» Testing Baires, 26 febrero 2017. [En línea]. Available:
https://testingbaires.com/2017/02/26/pruebas-caja-negra-enfoque-practico/. [Último acceso: 02 mayo 2020].
124
Tendencias, impacto de COVID-19 y pronósticos de crecimiento de la
realidad mixta en la educación.
Adalberto Iriarte-Solis 1
, Maria Palmira Gonzalez-Villegas 2
y Victor Javier Torres Covarrubias 3
1
Universidad Autónoma de Nayarit
adalberto.iriarte@uan.edu.mx
2
Universidad Autónoma de Nayarit
palmira.gonzalez@uan.edu.mx
3
Universidad Autónoma de Nayarit
javier@uan.edu.mx
Resumen. Actualmente, el mundo está completamente absorto en el uso de estas dos tecnologías, tanto la
Realidad Aumentada (RA) y Realidad Virtual (RV), y hace poco ha surgido una fusión increíble de estas
dos, que es una realidad extendida, conocida como Realidad Mixta (RM). Las aplicaciones basadas en
RM se encuentran dentro de las diez tecnologías mejor clasificadas del año 2020. Sus propiedades más
significativas son que se integra en tiempo real, que posee una diversidad de capas de información digital,
que es interactiva y que, mediante su utilización, enriquece o altera la información. Se muestran ejemplos
de implementaciones de la RM en la educación en las áreas de medicina, química y turismo. En la lucha
contra COVID-19, su principal beneficio ha sido el siguiente: (1) mayor comodidad; (2) mejor
comprensión y comunicación; (3) mayor seguridad; y (4) ahorro de recursos médicos. El mercado a nivel
global fue valorado en 376,1 millones de dólares en 2020 y se espera que alcance un valor de 3,915.6
millones para 2026 con una tasa compuesta anual esperada del 41,8% durante el período de pronóstico de
2021 a 2026. Como se puede revisar en los casos analizados, la contribución de esta innovación en la
praxis educativa es de gran magnitud, debido a que se obtienen resultados que impactan en contextos
profesionales y ayudan en áreas relacionadas con la aplicación de estos.
Palabras claves: Realidad mixta, educación, realidad virtual, tendencias tecnológicas, covid-19.
Abstract. Actually the world is completely open actually in the use of these two technologies, both
Augmented Reality (AR) and Virtual Reality (VR), and recently an incredible fusion of these two has
emerged, which is an extended reality, known as Mixed Reality (MR). MR-based applications are among
the ten best ranked technologies of the year 2020. Their most significant properties are that they are
integrated in real time, that they have a diversity of layers of digital information, that it is interactive and
that, through its use , enriches or alters the information. Examples of implementations of MRI in education
in the areas of medicine, chemistry and tourism are shown. In the fight against COVID-19, its main benefit
has been the following: (1) greater comfort; (2) better understanding and communication; (3) increased
security; and (4) saving medical resources. The global market was valued at $ 376.1 million in 2020 and
is expected to reach a value of $ 3,915.6 million by 2026 with an expected CAGR of 41.8% during the
forecast period from 2021 to 2026. As It can be reviewed in the cases analyzed, the contribution of this
innovation in educational practice is of great magnitude, due to the fact that results are obtained that impact
professional contexts and help in areas related to their application.
Keywords: Mixed reality, education, virtual reality, technology trends, covid-19.
1 Introducción
El desarrollo y evolución de las nuevas tecnologías ha tenido impactos significativos en el campo de
la educación. El uso de los conceptos de Realidad Aumentada (RA) y Realidad Virtual (RV) es cada
vez más común como se puede apreciar en el prestigioso Reporte Horizon, publicado por
EDUCAUSE, donde describen las tendencias educativas globales más relevantes. Este informe
señaló que ambas tecnologías serán componentes clave en el futuro de la educación, creciendo
exponencialmente durante los próximos años [1].
Actualmente, el mundo está completamente absorto en el uso de estas dos tecnologías, tanto la RA
como la VR. Y hace poco ha surgido una fusión increíble de estas dos, que es una realidad extendida,
125
conocida como Realidad Mixta (RM). Es una intersección perfecta entre ambas y combina lo mejor
de ambos mundos virtuales. Las aplicaciones basadas en RM se encuentran dentro de las diez
tecnologías mejor clasificadas del año 2020 [2].
Las propiedades más significativas de la RM es que se integra en tiempo real, que posee una
diversidad de capas de información digital, que es interactiva y que, mediante su utilización,
enriquece o altera la información. Afirmando lo mencionado, es importante resaltar que también
funge como una estrategia que permite aplicar el conocimiento teórico mediante una praxis que
coadyuve al mejoramiento de las destrezas y habilidades. Resulta interesante conocer que no hay un
perfil académico en específico para utilizarla; dentro del campo de la lingüística, las matemáticas,
ingenierías y otras se puede adecuar mediante una planeación o bien, un diseño instruccional, la
forma de abordar los contenidos, estrategias, actividades, recursos y formas de evaluación por medio
de esta innovación educativa [3].
Fig. 1. Componentes de la realidad mixta.
2 Tendencias de la Realidad Mixta
La implementación de la RM en el contexto de México, se encuentra el caso de la Universidad
Nacional Autónoma de México; donde se utilizó con éxito un innovador sistema de lentes que
permiten visualizar un holograma del paciente para realizar la primera cirugía con RM en México
por parte del programa de Alta Especialidad para Médicos Especialistas. Dicha aplicación médica se
realizó en diciembre de 2020, con la dirección del Hospital Avicenne AP-HP, en Francia, y en ella
participaron estudiantes universitarios operando el equipo a través de los dispositivos para la
interacción y aplicación del conocimiento en anatomía y demás áreas relacionadas. La experiencia
obtenida dio como resultado a la invitación de Evolutis, empresa dedicada a la fabricación de
implantes para hombro, a fin de trabajar en un proyecto con Microsoft para cirugía holográfica que
promovía un entrenamiento para especialistas de 13 países. Estas imágenes holográficas pueden
incluir datos de planificación quirúrgica y reconstrucciones en 3D de la anatomía de un paciente que
126
se pueden utilizar para ayudar al cirujano a lograr una alta precisión. Esta técnica podría usarse en el
futuro para reparar fracturas de escafoides: fijación percutánea del escafoides asistida por RM. La
fijación percutánea del escafoides asistida por RM puede tener el potencial de ayudar a los cirujanos
a lograr una colocación óptima de la guía con la capacidad de reducir el tiempo quirúrgico y la
exposición a la radiación, como se muestra en la figura 2 [4].
Fig. 2. Cirugía hecha por Michell Ruiz en la que estuvo en comunicación con otros especialistas internacionales. Fuente:
https://www.gaceta.unam.mx/hacen-primera-cirugia-holografica-en-mexico/
En el área de Química, se cuenta con el software Narupa que permite a grupos de investigadores
cohabitar simultáneamente en entornos de simulación en tiempo real con estructuras moleculares a
un nivel atómico de precisión. Este programa es de código abierto (GPL v3.0) y permite que dos
participantes puedan manipular la simulación en tiempo real de moléculas del tipo C60 por medio de
los controles inalámbricos. El nombre "Narupa" combina el prefijo "nano" y el sufijo "ar¯upa" (una
palabra sánscrita que describe objetos no físicos y no materiales), que representa el intento de
interactuar con objetos simulados a nanoescala con realidad virtual, como se muestra en la figura 3.
Narupa contiene empaquetados una serie de seis ejemplos estables, que los participantes pueden
inspeccionar para guiarlos en la configuración de sus propias simulaciones interactivas. Se espera
que en futuros trabajos sea posible entrenar modelos mediante aprendizaje automático (learning
machine), para que sean más rápidos que los métodos de la mecánica cuántica y que reproduzcan
superficies de energía de la mecánica cuántica, lo que permite la simulación interactiva de sistemas
aún más grandes, con el fin de construir conjuntos de datos para entrenar máquinas para que aprendan
funciones energéticas potenciales [5].
127
Fig.3. En la imagen se muestra la interacción de un Péptido 17-ALA atado en un nudo usando el software Narupa. Fuente
https://vimeo.com/244670465
Por otra parte, el Laboratorio de Química de Realidad Mixta desarrollado por el equipo de la Anyang
Normal University en China, es un sistema que proporciona una nueva experiencia educativa en la
que los estudiantes pueden simular un experimento de química en un laboratorio virtual e interactuar
con objetos utilizando visores Oculus y dispositivos de control manual. El sistema propuesto tiene
como objetivo familiarizar a los estudiantes con los procedimientos experimentales y el conocimiento
de seguridad antes de realizar experimentos reales. Se basa en la combustión de cinta de magnesio,
que es un experimento simple que proporciona una introducción a los estudiantes sobre los
experimentos de química. Se utilizan una lámpara de alcohol, vasos de precipitados, tiras de
magnesio, entre otros elementos, todo sobre una mesa virtual. Dicho experimento no puede
reemplazar completamente al experimento real. Sin embargo, los estudiantes pueden familiarizarse
con el proceso experimental de antemano y evitar o reducir la probabilidad de errores causados por
un proceso desconocido. Lo más importante es que los estudiantes no deben preocuparse por la
seguridad de los reactivos y el equipo de laboratorio, y el uso excesivo de estos. Por lo tanto, la
práctica repetida con el proceso experimental antes del experimento real resultó de gran beneficio
para los experimentos reales en el futuro [6].
El equipo de Schell Games ha producido una experiencia de aprendizaje lúdico de laboratorio
llamada HoloLAB Champions, para un sistema de realidad virtual totalmente inmersivo. La historia
del juego es la de una estación espacial varada y el jugador debe realizar reacciones químicas
específicas correctamente, por ejemplo, la síntesis de una sustancia fluorescente, para sobrevivir.
Además de hacer que este juego esté disponible para escuelas y universidades, el equipo de Schell
Games ha lanzado este juego de química en el mercado de juegos comerciales. Jugar con productos
químicos utilizando HoloLAB Champions, es divertido y completamente seguro, asegura su creador
Jesse Schell [7].
Otro de los contextos educativos que han decidido optar por trabajar la RM a través del área de
Turismo, ha sido el Instituto Politécnico Nacional (IPN), con el objetivo conocer de manera ágil y
precisa los atractivos que ofrece el Centro Histórico, tales como museos, edificios, hoteles,
restaurantes o cafeterías, mediante la interacción del entorno físico con elementos digitales.
Estudiantes de esta institución educativa combinaron la RV y la RA, en una aplicación de asistencia
turística para la Ciudad de México. El prototipo, que se realizó forma parte del proyecto “Sistema de
realidad mixta para la asistencia turística en la Ciudad de México”, el cual consta de unos lentes
ajustables con un acrílico traslúcido negro y un espejo de polietileno que le permite reflejar, a través
del visor, los íconos digitales de los lugares seleccionados que aparecen en el celular, en tiempo real
y sin distorsiones. Este prototipo ofrece una experiencia holística, integrando todos los servicios de
determinado lugar, ofrecer la lista de sitios para visitar y su valoración, así como la revisión de las
rutas de acceso, esta aplicación de realidad mixta puede utilizarse mediante servicios de Google, el
inicio de sesión que puede tener una o varias cuentas, cada una con un perfil de usuario, mediante el
que se podrán elegir los diferentes lugares que se quieran visualizar y la distancia que se desea
abarcar, a través de un control Bluetooth [8].
3 Impacto del COVID-19
En la primera línea de la lucha contra la COVID-19, en el Hospital Wuhan Union en China, un grupo
de medicina inteligente aprovechó con éxito las ventajas de la tecnología de RM para lidiar con
COVID-19 utilizando dispositivos HoloLens de Microsoft. El restablecimiento de pulmón se
presenta de una manera tridimensional más vívida mediante el etiquetado con diferentes colores y
luego presentado por HoloLens para los médicos. Se dividen los tejidos normales y enfermos, y
128
durante la presentación, los trabajadores médicos pueden ampliar, encoger y rotar el modelo y
también hacer perspectiva a través de gestos de figuras en el aire. La observación, medición y
evaluación del nivel de enfermedad también podría realizarse sin contacto para evitar la posibilidad
de transmisión por contacto y cortar la ruta de transmisión, como se muestra en la figura 4.
Fig.4. Aplicación de RM ante la COVID-19 [9].
En general, la tecnología de RM para la atención médica inteligente proporciona una ayuda eficaz
para la lucha contra COVID-19. El principal beneficio ha sido el siguiente: (1) mayor comodidad;
(2) mejor comprensión y comunicación; (3) mayor seguridad; y (4) ahorro de recursos médicos. Con
la ayuda de la tecnología de RM, los médicos pueden obtener una comprensión más clara del
coronavirus a nivel científico y mundial. La RM puede ser un método oportuno para ayudar a los
trabajadores clínicos con una mejor prevención de la epidemia y una mejor gestión de la salud
pública. También podría aplicarse la RM con inteligencia artificial y tecnología de comunicación 5G
para reconocer y presentar de forma inteligente las lesiones y la consulta remota junto con otros
escenarios [9].
De esta forma, la COVID-19 ha tenido un impacto positivo en la demanda de hardware para RA, RV,
y MR , debido a que las empresas de todo el mundo están tratando de encontrar formas de lograr que
sus equipos internos y geográficamente más amplios se comuniquen, colaboren y encuentren un
camino a seguir durante la crisis. Incluso después de que finalice la pandemia, es probable que el
cambio de comportamiento que ha provocado dure un período de tiempo considerablemente más
largo. Se espera que las personas permanezcan socialmente distantes, pero con el uso de tecnologías
como la RM estarán prácticamente cerca. Estas plataformas y tecnologías pueden permitir
principalmente que múltiples empresas funcionen y crezcan independientemente de los desafíos que
plantea el distanciamiento social [10].
4 Crecimiento de la Realidad Mixta
La tendencia del mercado de RM está siendo impulsada por inversiones en dispositivos de hardware,
plataformas y ecosistemas de software. Algunas inversiones se centran principalmente en reemplazar
teclados y pantallas planas con paradigmas completamente nuevos para la colaboración y la
comunicación. Se espera que el segmento norteamericano del mercado de RM crezca
129
significativamente durante el período del 2021 a 2026, registrando una tasa compuesta anual del
83.3%, debido a la presencia de un gran número de proveedores que también están haciendo
inversiones considerables en innovación de mercado y asociaciones estratégicas. El mercado a nivel
global fue valorado en 376,1 millones de dólares en 2020 y se espera que alcance un valor de 3,915.6
millones para 2026 con una tasa compuesta anual esperada del 41,8% durante el período de
pronóstico de 2021 a 2026 [11].
De esta forma, se espera que Estados Unidos sea uno de los mercados de RM más innovadores. La
mayoría de las empresas que avanzan en esta tecnología tienen su sede en Estados Unidos. Un
ejemplo es Microsoft y su proyecto Hololens que comenzó desde el año 2010, y le tomó seis años
para su desarrollo, lanzado la edición para desarrolladores en el primer trimestre de 2016. En
noviembre de 2018, Microsoft recibió 480 millones de dólares por el ejército de Estados Unidos para
el suministro de 2,500 auriculares HoloLens, que se utilizaron con un enfoque principal en la
innovación militar y en el entrenamiento digital del ejército. Actualmente, trabajan en la versión 2 de
sus lentes, con lo que piensan revolucionar el mercado [12].
Desde la adquisición de Oculus por parte de Facebook en 2014 por 2.000 millones de dólares, la RM
se ha convertido en una parte central de cómo Facebook imagina públicamente su futuro, Facebook
ha enmarcado a Oculus principalmente como una red social. En los últimos años se han realizado
más esfuerzos para refinar la funcionalidad social de la RM en las aplicaciones de Facebook,
Instagram y SnapChat al agregar filtros muy divertidos, y mas recientemente es el lanzamiento de la
aplicación Horizon Workrooms, en Agosto del 2021, exclusivo para sus gafas Oculus Quest 2 [13].
Otro ejemplo es el gigante de aplicaciones de chat de juegos, Discord, quien en junio de 2021
adquirió la startup de realidad aumentada Ubiquity6. Dicha plataforma está orientada al consumidor
para alojar contenido de RM, y la adquisición por parte de Discord puede atraer a una audiencia más
amplia a sus productos.
La industria del automóvil también avanza hacia el negocio de la RM. Muchas empresas de
automóviles están utilizando tecnologías de inteligencia artificial, junto con la RM (a través de
pantallas Head-up), para marcar su presencia en el mercado. Los fabricantes incluidos son Audi,
BMW, Mercedes-Benz, Chevrolet, Toyota y Volvo, entre otros, ya que han incluido características
relevantes como el entrenamiento de sus empleados, la colaboración basada en procesos remotos, la
asistencia en el camino y la detección de objetos [14].
El uso de esta información permite a los investigadores, desarrolladores y usuarios de entornos de
realidad mixta, seleccionar y tomar decisiones informadas sobre las mejores herramientas y entornos
para sus respectivas aplicaciones, al tiempo que transmiten información con mayor claridad y
precisión. El desarrollo y la aplicación de marcadores más complejos contribuiría en gran medida a
lograr mayores avances en la extensión del conocimiento actual y en el desarrollo de aplicaciones
para impactar positivamente el entretenimiento, los negocios y la salud, mientras se minimizan los
costos y se maximizan los beneficios [11].
5 Conclusiones
La situación de contingencia sanitaria por la que cursamos actualmente nos invita a replantear nuestra
forma de enseñar. Estamos frente a un reto en el que tenemos que adaptarnos hacia una nueva
normalidad en la cual el uso de la tecnología digital es cada vez más frecuente para la innovación y
transformación de los procesos de enseñanza aprendizaje. Como se puede revisar en los casos
analizados, la contribución de esta innovación en la praxis educativa es de gran magnitud, debido a
que se obtienen resultados que impactan en contextos profesionales y ayudan en áreas relacionadas
130
con la aplicación de estos.
Sin embargo, aún existen varios problemas y limitaciones principales, incluidos los mareos y la falta
de orientación que pueden provocar su uso excesivo, la mayoría de las aplicaciones tienen las
instrucciones únicamente en el idioma nativo, principalmente en inglés, y la poca accesibilidad de
dispositivos capaces de reproducir estas tecnologías. Además, la mayoría de las instituciones
educativas carecen de instalaciones adecuadas de laboratorios virtuales debido a los problemas
financieros y la falta de equipo disponible.
Referencias
[1] REBAQUE, Begoña Rivas; BARRIO, Felipe Gértrudix; GÉRTRUDIX-BARRIO, Manuel. Análisis sistemático sobre
el uso de la Realidad Aumentada en Educación Infantil. Edutec. Revista Electrónica De Tecnología Educativa, 2021,
no 76, p. 53-73.
[2] FLAVIÁN, Carlos; IBÁÑEZ-SÁNCHEZ, Sergio; ORÚS, Carlos. The impact of virtual, augmented and mixed reality
technologies on the customer experience. Journal of business research, 2019, 100, 547–560.
[3] CABERO, J.; BARROSO, J.; LLORENTE, C. La realidad aumentada en la enseñanza universitaria. REDU. Revista de
docencia universitaria, 2019, 17, 1, 105-118.
[4] GREGORY, Thomas; HURST, Simon A.; MOSLEMI, Aymane. Mixed Reality Assisted Percutaneous Scaphoid
Fixation: A Proposed New Surgical Technique. Techniques in Hand & Upper Extremity Surgery, 2021.
[5] O’CONNOR, Michael B., et al. Interactive molecular dynamics in virtual reality from quantum chemistry to drug
binding: An open-source multi-person framework. The Journal of chemical physics, 2019, vol. 150, no 22, p. 220901.
[6] DUAN, Xiaoyun, et al. Mixed Reality System for Virtual Chemistry Lab. KSII Transactions on Internet and Information
Systems (TIIS), 2020, vol. 14, no 4, p. 1673-1688.
[7] WINTER, Julia. Playing with chemistry. Nature Reviews Chemistry, 2018, vol. 2, no 5, p. 4-5.
[8] IPN utiliza realidad mixta para promover turismo en la CDMX. El Capitalino MX,por redacción, 4 de marzo del 2021,
acceso el 1 de septiembre del 2021. https://elcapitalino.mx/capital/ipn-utiliza-realidad-mixta-para-promover-turismo-
en-la-cdmx/
[9] LIU, Pengran, et al. Mixed reality assists the fight against COVID-19. Intelligent Medicine, 2021.
[10] BALA, Laksha, et al. A remote access mixed reality teaching ward round. The Clinical Teacher, 2021.
[11] LIANG, Jiafang. Mixing Worlds: Current Trends in Integrating the Past and Present through Augmented and Mixed
Reality. Advances in Archaeological Practice, 2021, vol. 9, no 3, p. 250-256.
[12] VIDAL-BALEA, Aida, et al. Analysis, design and practical validation of an augmented reality teaching system based
on microsoft HoloLens 2 and edge computing. En Engineering Proceedings. Multidisciplinary Digital Publishing
Institute, 2020. p. 52.
[13] EGLISTON, Ben; CARTER, Marcus. Oculus imaginaries: The promises and perils of Facebook’s virtual reality. New
Media & Society, 2020, p. 1461444820960411.
[14] DENGLER, Franz; EICHLER, Bruno; DAGLI, Abdülkerim. Acceleration of ECU-Development by Using Connected
Mixed Reality Environments. 2021.
131
VI. E-educación
132
Propuesta de APP como herramienta de enseñanza para niños con el
trastorno del espectro autista
Francisco Preciado Álvarez1
, Elide Gonzalez-Veyra2
, Juan Ramón Flores Avalos 3
, Fabian Pérez Ojeda4
,
Arquímedes Arcega Ponce5
1, 2, 3, 4, 5
Universidad de Colima, Facultad de Contabilidad y Administración campus Tecomán, Km 40.1
autopista Colima-Manzanillo, La Estación, Tecomán, Colima, 28930. México 1
fpreciado0@ucol.mx,
2
egonzalez@ucol.mx, 3
jflores@ucol.mx, 4
fojeda@ucol.mx, 5
pime@ucol.mx
Resumen. En la actualidad las tecnologías de información y comunicación (TIC) crean y agilizan
métodos para el aprendizaje de niños con atenciones especiales por ello, el presente trabajo aborda el
diseño de una aplicación móvil como herramienta de apoyo para niños con el Trastorno del Espectro
Autista (TEA) la cual tiene como finalidad ser empleada por cualquier individuo que interactúe con
niños con TEA. Con este fin, se emplea la metodología Mobile-D para el proceso de diseño de la
aplicación, también se aplicó un instrumento de recolección de datos basado en el modelo de aceptación
de nuevas tecnologías (TAM) para conocer la utilidad que esta pueda tener esta, dicho instrumento fue
aplicado a personas que se dedican a brincar atención a niños con el TEA. Como resultado se obtienen el
diseño de interfaz, bases de datos y funcionalidad de la App móvil, así como la percepción positiva de
las personas a quienes se les aplicó el instrumento.
Palabras clave: educación, aplicaciones móviles, autismo
1 Introducción
El Trastorno del Espectro Autista se caracteriza por la afectación en los niños de sus habilidades
sociales, cognitivas y emocionales, lo que resulta en la dependencia a los padres de familia o tutores
la cual es una lucha constante, por el tiempo que debe ser invertido y el aspecto económico que debe
asumirse. Actividades como comer, asearse y hasta comunicar sus necesidades son un reto para todos,
pues se batalla a diario con acciones diarias que si se tuvieran mecanizadas o pudieran hacer ellos
mismos sin ayuda ahorraría en tiempo, labor y sobre todo originaría en la independencia de los chicos.
Existen hasta la fecha muchas herramientas de las cuales pueden hacer uso tanto las familias como
los profesionales de educación, logoterapia, psicología, etc., pero la situación es que esas
herramientas son en su mayoría actividades o pictogramas (dibujos que expresan un concepto)
impresas, lo cual significa la limitante de no poder continuar con las terapias en cualquier lugar o
momento. Estas herramientas, además de representar un desembolso económico que a la larga puede
ser grande, también es muy tardado y tedioso, pues se hacen adecuaciones a los materiales
constantemente ya que cada individuo es diferente y no todo el material se ajusta a sus necesidades.
Para el desarrollo del presente estudio, se analizaron trabajos como el de García de la Universidad de
la Sierra Sur, en dicho trabajo se hizo una propuesta para desarrollar una aplicación móvil interactiva
que pudiera servir de apoyo en el aprendizaje de los niños de educación básica. Analizaron una serie
de aplicaciones móviles y web, de las cuales sustrajeron los elementos que consideraron serían claves
en el proceso de enseñanza aprendizaje en un contexto de educación básica, como resultado
obtuvieron una propuesta viable de elementos que deben ser integrados en la aplicación móvil para
que pueda ser utilizada en educación básica. Del anterior trabajo, se recoge el listado de aplicaciones
que analizaron en su estudio, pues del mismo, algunas pueden ser aplicadas a niños con el espectro
autista [1].
Otro trabajo es el realizado por Alarcón Quispe de la Universidad Mayor de San Andrés, quien
desarrolló un prototipo de una aplicación móvil de realidad aumentada para el tratamiento de niños
autistas. Este proyecto se realizó en base a la metodología de desarrollo Mobile-D la cual brinda
agilidad, y está dividida en fases y proporciona algunas técnicas para el óptimo desarrollo de la
aplicación móvil, como resultado de este proyecto se obtuvo una aplicación de realidad aumentada
133
en dispositivos móviles para el tratamiento de niños autistas. Del anterior trabajo, se recupera
información relacionada a la metodología Mobile-D la cual puede ser de gran utilidad para la
elaboración del funcionamiento de una aplicación [2].
Finalmente, Yong Varela de la Universidad Autónoma de Tamaulipas, realizó un trabajo de
investigación denominado “Modelo de aceptación tecnológica (TAM) para determinar los efectos de
las dimensiones de cultura nacional en la aceptación de las TIC” en el cual se plantean variables
externas que influyen en el modelo y así determinar si hay una correlación significativa en cuanto al
uso y aceptación de las TIC, como resultado obtuvo una investigación viable sobre la importancia de
la región en la cual se aplique el modelo TAM, además de la influencia confirmada de las variables
“Individualismo/Colectivismo” y “Distancia Jerárquica”. Del anterior trabajo, se recuperan las
características que se le adjuntan al Modelo de Aceptación Tecnológica, la cual ayudará a determinar
si la aplicación será aceptada por el usuario final [3].
Se plantea como objetivo general el diseñar una aplicación móvil como herramienta para la enseñanza
en niños con el Trastorno del Espectro Autista que sea identificada como útil por personas mayores
de edad que brinden atención a estos.
2 Estado del arte
El Instituto Nacional De La Salud Mental (NIMH por su sigla en inglés) menciona que “El autismo
es un grupo de trastornos del desarrollo cerebral, a los que se llama colectivamente el trastorno del
espectro autista TEA. El término “espectro” se refiere la amplia gama de síntomas, habilidades y
niveles de deterioro o discapacidad que pueden tener los niños con el TEA. Algunos niños padecen
un deterioro leve causado por sus síntomas, mientras que otros están gravemente discapacitados” [4].
En lo que respecta a la presencia del autismo en México, se realizó un estudio en León, Guanajuato
financiado por la organización Autism Speaks, el cual arrojó un estimado de 400,000 niños con
autismo en el país, es decir 1 de cada 115. Lo cual para el país representa un reto en lo que a Salud
Pública se refiere [5].
No obstante, el número creciente de casos, Gómez Cotero, especialista del Centro Interdisciplinario
de Ciencias de la Salud (CICS) del Instituto Politécnico Nacional, alertó sobre la insuficiencia ante
la creciente demanda de instituciones que brindan atención a niños con autismo [6]. Mencionó en
entrevista de Excélsior: “Necesitamos contar con un mayor número de profesionales que coadyuven
al diagnóstico temprano y a brindar terapia a los niños con esta afección”. Con la intención de mitigar
este problema el CICS en conjunto con la Clínica Mexicana de Autismo y Alteraciones del
Desarrollo, A. C. (CLIMA) diseñaron un diplomado único en México, con un enfoque en mejorar la
rehabilitación psicosocial, este diplomado va dirigido a psicólogos titulados [7].
El Gobierno Federal ha realizado esfuerzos en coordinación con algunos estados de la república con
la finalidad de crear conciencia y educar a la población en torno al espectro autista, tal es el caso de
la reciente aprobación por parte del congreso estatal de Baja California, donde solicitan a la Secretaría
de Educación y Bienestar Social (SEBS) de Baja California para la publicación de libros para el trato
de personas autistas, lo que indica el interés por atender a este sector de la población [8].
La búsqueda de nuevos tratamientos continua, en la actualidad se busca el desarrollo de soluciones
apoyándose en las tecnologías de información y comunicación (TIC), sobre todo haciendo uso de los
dispositivos móviles, que, por su penetración y accesibilidad, pueden encontrarse en gran cantidad
de familias. De acuerdo a datos recogidos por el Instituto Nacional de Estadística y Geografía
(INEGI) y del Instituto Federal de Telecomunicaciones (IFT), existen 18.3 millones de hogares en
México con conexión a internet, 74.3 millones de usuarios de internet de seis años o más, lo que
representa el 65.8% de la población [9].
Existen hasta la fecha 99 instituciones a lo largo del país dedicadas a la atención de niños, jóvenes y
adultos con autismo [10].
Todas las aplicaciones para niños con TEA se centran en diferentes aspectos afectados, ya sean
cognitivos, de comunicación, independencia, socialización, etcétera. todo esto para mejorar la calidad
134
de vida del usuario. En Uruguay se lanzó recientemente una App que permite, a través de una base
de datos que se irá alimentando con el tiempo por el usuario, reconocer el porqué de una crisis o
“berrinche” de los niños dentro del espectro autista [11].
Un pueblo en España, llamado Renedo de Esgueva se convirtió en el primer “Picto-Pueblo” ya que
colocaron pictogramas en sus calles y establecimientos más representativos, a manera de
concientización y de romper un poco la barrera de comunicación con las personas con autismo Los
pictogramas son dibujos sencillos que representan un concepto, fungen como herramienta de apoyo
para la fácil interpretación de estos conceptos, ya sean verbos, objetos, personas, etc. [12].
3 Diseño metodológico
El presente trabajo de investigación parte de un enfoque deductivo, es de tipo transversal, no experimental,
mixta (cualitativa y cuantitativa), exploratoria, aplicada y documental.
Para fines del presente trabajo se pretende una vez elaborada la propuesta de diseño de la App aplicar
el instrumento conocido como TAM (Modelo de Aceptación de Tecnología) de manera parcial, dicho
instrumento será aplicado a personas mayores de edad que brinden atención a niños con el Trastorno
del Espectro Autista [13].
Se aplicará la técnica del muestreo discrecional, seleccionando un total de 10 sujetos a los cuales se
les aplicará de manera parcial el instrumento denominado TAM (Modelo de Aceptación de
Tecnología).
Figura 17.Modelo de Aceptación Tecnológica
Se determinó que la muestra fuera de 10 sujetos debido a que es el número de personas que se tiene
contacto y conoce por parte de los investigadores y con la finalidad de no abordar a personas
desconocidas ya que el tema del autismo infantil es tema delicado.
El presente trabajo será evaluado bajo el siguiente instrumento de recolección de datos basado en
modelo TAM para dicha recolección se quedará hasta la etapa de utilidad de uso.
La metodología de diseño de app que sirve como fundamento es la denominada Mobil-D, la cual se
divide en cinco fases y en el presente trabajo se desarrollará hasta la tercera de estas: exploración,
inicialización, producción, estabilización y prueba y reparación del sistema.
4 Resultados
Este apartado se divide en dos, los resultados obtenidos de la implementación de la metodología Mobil-D y el
segundo, el análisis de los datos recuperado por el instrumento adaptado del modelo TAM que permita medir
la utilidad percibida.
4.1 Implementación de Mobil-D
Se propone una aplicación móvil a base de secuencias usando videos cortos. Estas secuencias serán de
actividades concurrentes en la vida diaria del niño como pueden ser lavarse los dientes, ir al baño o cambiarse
de ropa, la aplicación también contará con la opción de ser alimentada con contenido propio por el padre, tutor
135
o profesional que atiende al niño. Con la finalidad de estandarizar conceptos, se definen algunos de los términos
comunes dentro del desarrollo de la presente metodología.
Grupo: funciona de manera similar a una lista de reproducción, agrupa dos o más secuencias.
Secuencia: es un grupo de pasos
Paso: es un video corto donde se muestra al usuario final lo que debe de realizar.
El establecimiento de los interesados en la aplicación tiene la finalidad de identificar grupos de
actores necesarios a lo largo del proyecto por su participación en las tareas que les corresponden,
entre ellos se identifica el Usuario Final: actor principal al niño o niña que se encuentra dentro del
Trastorno del Espectro Autista, el cual hará uso de la aplicación como herramienta de apoyo en sus
actividades diarias, su edad oscila entre los 5 y 10 años; El Usuario Auxiliar: actor secundario al
padre, tutor o profesional que haga uso de la aplicación para beneficio de una niña o niño que se
encuentre dentro del Trastorno del Espectro Autista; y finalmente, el Grupo de Desarrollo o los
autores del presente trabajo de investigación serán los encargados de diseñar la aplicación. En la
figura 2 se expresan los requerimientos del usuario auxiliar, se elaboró un diagrama para cada uno
de los usuarios empleando UML y sus diagramas de casos de uso.
Figura 2. Diagrama de casos de uso del Usuario Auxiliar
El usuario auxiliar, (figura 3) se le asignaron cinco casos de uso, el denominado “ejecutar secuencia”,
“crear secuencia”, “gestionar grupo”, “editar secuencia” y “navegar pasos de secuencia. Cada uno de
los casos de uso presentados en los tres diagramas, fue desarrollado en una tabla de secuencia, lo que
permite tener un mayor entendimiento del funcionamiento y su operatibidad en el sistema como un
todo, en la tabla 1 se observa un ejemplo de esta secuencia.
Nombre del caso de uso
Crear secuencia
Descripción: Permite al usuario auxiliar añadir nuevas
secuencias.
Actores: Usuario auxiliar
Precondiciones: Seleccionar un grupo
Flujo normal
1.- El actor entra a la aplicación
2.- El actor visualiza interfaz con todas sus secuencias y da click en añadir
nueva
3.- El actor introduce nombre de la nueva secuencia
4.- El actor graba los pasos de la nueva secuencia
5.- El actor sube los videos a la aplicación y da guardar
6.- La aplicación reproduce la nueva secuencia
136
Flujo alternativo
7.- La aplicación despliega la leyenda “su dispositivo no cuenta con
espacio suficiente” al dar guardar, si esto sucede se deberá liberar espacio.
8.- El actor da clic en “rehacer paso” si alguno no cumplió con sus
expectativas.
Post condición: El actor puede grabar el paso de nuevo
Tabla 1. Flujo del caso de uso “crear secuencia”
Se procedió a diseñar la base de datos iniciando por su diseño empleando el modelo entidad relación
y posteriormente el modelo relacional, en la figura 3 se observa el diagrama del modelo entidad
relación.
Figura 3. Diagrama entidad relación de la base de datos
4.2 Medición de la utilidad percibida
Se aplicó de manera parcial el instrumento de recolección de datos bajo el modelo TAM a 10
sujetos mayores de edad que brindan atención a niños con el Trastorno del Espectro Autista.
Tabla 2. Resultados obtenidos sobre la utilidad percibida
De acuerdo a lo observado en la tabla 2, los resultados denotan en teoría la utilidad de la aplicación
móvil por parte de los usuarios auxiliares como herramienta de enseñanza para niños con autismo.
137
5 Conclusiones y trabajo futuro
Se cumple el objetivo planteado en el presente trabajo, aplicando la metodología de desarrollo de
aplicación móviles Mobil-D hasta la fase tres, se concreta el diseño de la herramienta móvil para
la enseñanza de niños con autismo. Y con apoyo del modelo TAM se identifica la utilidad
percibida de dicha herramienta, obteniendo como resultado que las personas que se dedican a la
atención de niños con autismo la encuentran útil. El trabajo de investigación se delimitó a diseñar
la aplicación a base de secuencias y que a partir de este punto fuera evaluado como útil o no por
personas mayores de edad que brindan atención a niños con autismo, de tal manera que su opinión
permita avalar su beneficio tanto para los niños – el usuario final – como para aquellos que los
atienden – usuario auxiliar.
Teniendo en cuenta la complejidad del TEA y las nuevas tendencias tecnologías en el área de
salud se recomienda a los futuros investigadores mantener una actualización frecuente de
información útil que permita mejorar la expuesta en esta investigación y que abone a un siguiente
paso con la finalidad de que el diseño funcional de esta app este a la altura de las nuevas tendencias
tecnológicas.
El presente trabajo de investigación tiene como finalidad realizar la etapa de diseño de una app
para niños con TEA, lo cual como siguiente paso con relación a esta investigación es realizar la
etapa de producción que permita que el diseño tenga continuidad con la investigación previa para
concluir con este proyecto en todas sus fases requeridas.
La opinión de la población acerca de la aplicación resultó positiva por lo que se sugiere continuar
con este proyecto siguiendo la metodología Mobile-D en su fase de producción de tal manera que
la aplicación pueda ser desarrollada.
Referencias
[1] García, S. Uso de las TIC en el Trastorno de Espectro Autista. España, 2016.
https://dialnet.unirioja.es/servlet/articulo?codigo=6038316
[2] Alarcón, A. Realidad Aumentada En Dispositivos Móviles Para El Tratamiento De Niños Autistas, 2016.
https://repositorio.umsa.bo/handle/123456789/7684
[3] Young, V. Modelo de aceptación tecnológica (TAM) para determinar los efectos de las dimensiones de cultura nacional
en la aceptación de las TIC. Revista internacional de Ciencias Sociales y Humanidades, vol. XIV (1), 2004.
[4] NIMH. Guía para padres sobre el trastorno del Espectro Autista, 2013.
http://www.nimh.nih.gov/health/publications/espanol/gu-a-para-padres-sobre-el-trastorno-del-espectro-
autista/index.shtml
[5] Gaceta UNAM. Autismo, reto para la salud pública y para la inclusión, 2019. https://www.gaceta.unam.mx/autismo-
reto-para-la-salud-publica-y-para-la-inclusion/
[6] IPN. En México uno de cada 115 niños nace con autismo. InstitutoPolitécnicoNacional, 2019.
https://www.ipn.mx/imageninstitucional/comunicados/ver-comunicado.html?y=2019&n=90
[7] Excelsior. Nace con autismo 1 de cada 115 niños en México. México: Periódico Excélsior versión digital, 2019.
https://www.excelsior.com.mx/nacional/nace-con-autismo-1-de-cada-115-ninos-en-mexico/1305316
[8] Uniradio. Solicitarán a SEBS publicar libros para el trato de personas autista, 2019.
https://www.unimexicali.com/noticias/bajacalifornia/582380/solicitaran-a-sebs-publicar-libros-para-el-trato-de-personas-
autistas.html
[9] INEGI. Comunicado de Prensa 179/19, Instituto Nacional de Estadística y Geografía, 2019.
https://www.inegi.org.mx/contenidos/saladeprensa/boletines/2019/OtrTemEcon/ENDUTIH_2018.pdf
[10] Teletón. Directorio de instituciones dedicadas al autismo a nivel nacional.
https://s3.amazonaws.com/teletonorgmx/botones/Directorio%20Nacional%20de%20Instituciones%20-
%20Autismo%20Enero%202018.pdf
[11] Vanguardia. Berrinche de los niños autistas, en la palma de la mano gracias a una app. México, 2019.
https://vanguardia.com.mx/articulo/berrinche-de-los-ninos-autistas-en-la-palma-de-la-mano-gracias-una-app
[12] Serrador, M. Renedo, el primer «Picto-Pueblo» que integra. España, 2017. https://www.abc.es/espana/castilla-
leon/abci-renedo-primer-picto-pueblo-integra-201703310920_noticia.html
[13] Davis, F. D., Bagozzi, R.P. & Warshaw, Paul R. User Acceptance of Computer Technology: A Comparison of Two
Theoretical Models. Management Science, 35(8), 982-1003, 1989.
138
139
Aplicación Web de apoyo a la enseñanza del Álgebra utilizando el
Modelo de Áreas basada en el paradigma de componentes de software
Rubén Peredo Valderrama 1
Iván Peredo Valderrama 2
1
Escuela Superior de Cómputo del Instituto Politécnico Nacional, Av. Juan de Dios Bátiz S/N esquina con
Miguel Othón de Mendizábal, México, D.F., 07738. México
rperedo@ipn.mx
2
Universidad Politécnica de Querétaro, Carretera Estatal 420 S/N el Rosario el Marqués, México, Querétaro,
CP. 76240.
ivan.peredo@upq.edu.mx
Resumen. La presente propuesta presenta una aplicación Web de apoyo a la enseñanza del algebra utilizando el modelo
de áreas basada en el paradigma de componentes de software, para desarrollar prácticas en línea bajo el paradigma de
Educación Basada en Web (Web-Based Education, WBE por sus siglas en inglés), basada en estándares del W3C. La
propuesta utiliza componentes de software para la composición de la aplicación y el manejo de multimedios. La aplicación
Web está compuesta de varios módulos que posibilita desarrollar diferentes tipos de materiales educativos didácticos de
apoyo a la enseñanza del álgebra, construyendo rectángulos de diferentes tamaños relacionando la multiplicación con el
área, promoviendo la multiplicación y la factorización, además de hacer un análisis de datos de las evaluaciones de los
estudiantes utilizando Python y Pandas. La propuesta utiliza patrones de diseño de software, destacando dos: composición,
y Modelo-Vista-Controlador (Model-View-Controller, MVC por sus siglas en inglés). La propuesta posibilita a profesores
y estudiantes llevar a cabo prácticas en línea, reduciendo la elevada complejidad técnica, permitiendo crear materiales
educativos didácticos reutilizables de alta calidad para el apoyo bajo el paradigma de WBE.
Palabras clave: Álgebra, Componentes, Educación Basada en Web, W3C.
1 Introducción
Hoy es prácticamente imposible imaginar alguna actividad social, cultural o productiva que no haya
sido modificada por las Tecnologías de la Información y la Comunicación (Information and
Communication Technologies, TIC por sus siglas en inglés). La educación no ha sido la excepción
en mayor o menor medida, pero ha dejado todavía por delante una promesa de cambio que no termina
de concretarse, pero poco a poco esto está cambiando. Las TIC pueden ser vistas como una solución
creativa a un problema dado, teniendo diferentes vistas dependiendo del actor relacionado con la
educación. Reflexionemos en el rol del docente, las concepciones sobre el proceso de
enseñanza/aprendizaje, el papel pasivo o activo de los estudiantes, la elección de contenidos, etc. El
debate no debe ser sobre el papel de las TIC en la educación. El debate más bien debe ser con el lugar
que se le atribuye la escuela en el cumplimiento de su función social establecida, analizando las TIC
en el marco de su función social. Existen argumentos a favor y en contra de las TIC, debemos adoptar
una postura mesurada al respecto. Las TIC afortunadamente o desafortunadamente están con
nosotros, para bien o para mal. La preocupación por lo que se puede perder, debe subsanarse por una
constante intención de aprovechar las nuevas oportunidades. La enseñanza de cualquier materia ha
sufrido cambios en muchos sentidos. La disponibilidad de las TIC provoca la necesidad de plantearse
nuevamente preguntas fundamentales, independientemente de los acuerdos o desacuerdos resultantes
será necesario el aprendizaje de algún tipo de conocimiento de estos cambios para comprender la
situación actual. El mundo se ha vuelto un lugar menos previsible, requiriendo de un tipo de
formación más amplia. Existe un consenso positivo internacional en extender los tiempos de
formación general de todos los ciudadanos, independientemente de su posible futuro laboral o
académico. Esto ha cambiado sustancialmente las condiciones base para la construcción de la escuela
promedio. La enseñanza cualquier materia deben tener sentido en sí misma, en otras palabras, la
selección de contenidos de una materia debe tomar en cuenta todas aquellas nociones de la disciplina
que pudieran ser consideradas relevantes para un ciudadano. Hace ya varias décadas múltiples
140
investigadores del área psicología del aprendizaje pusieron de manifiesto que los alumnos no
llegaban a aprender cosas que habían sido planteadas como propósitos en la respectiva currícula. Esto
puede ser interpretado de muchas maneras, La evidencia ofrecida por estos investigadores apunta a
cierta dificultad intrínseca de incompatibilidad entre el modo en que los seres humanos aprendemos,
y como la ciencia pretende enseñárnoslo. Las metas educativas de las diferentes áreas escolares, se
pueden agrupar de manera general en dos grandes propósitos. El primero corresponde con enseñanzas
de tipo pragmático, y el segundo con enseñanza de tipo epistémica. La finalidad de la enseñanza
pragmática es de lograr resultados eficientes. Mientras que la meta del orden sistémico se enfoca en
transformar la mente del que aprende. Como se puede ver los tipos de acciones para lograr una u otra
no son iguales. Suele escucharse que las escuelas ya no son la fuente de novedades informativas que
eran hace unas décadas, y la información ahora está al alcance de la mano de todos gracias a las TIC.
Pero la función epistémica pretende cambios en la estructura del pensamiento en los estudiantes, esto
no se ve alterada por la disponibilidad de la información. Es importante destacar las nuevas
oportunidades con la integración de las TIC en enseñanza. Es importante generar aportes que
permitan el proceso de integración de las TIC a la práctica docente. Este proceso puede nutrirse de
múltiples propuestas. Siendo el objetivo que el docente pueda hacer uso de herramientas digitales
para vincular sus prácticas con las TIC. Es importante mencionar que las TIC ofrecen recursos para
la enseñanza de las diversas áreas de estudio como: fuentes de información, recursos, prácticas, etc.
Todavía hay propuestas que pueden hacer aportes significativos. En la Web existen una gran cantidad
de simulaciones interactivas con la finalidad de apoyar la investigación de un concepto o de un
experimento simulado. Las simulaciones deben ser vistas como un aporte y no como una suplantación
de la práctica real, no debe pensarse en que la simulación suplante al laboratorio [1].
Razonar matemáticamente consiste en la habilidad de interpretar y resolver situaciones problémicas,
conocer las propiedades de las operaciones, analizar los fenómenos y convertirlos al lenguaje de las
matemáticas. Pólya piensa que el profesor debe estimular en los alumnos la curiosidad, propiciando
un ambiente que propicie la investigación y el descubrimiento. Tratando de enseñar a pensar
matemáticamente, abstrayendo y aplicando ideas matemáticas en un amplio rango de situaciones. La
enseñabilidad es una característica derivada de la epistemología de cada ciencia referida a su forma
particular de expresión, contenido y fundamentos teóricos y experimentales, que caracterizan la
manera de abordar sus problemas específicos, y condiciona el modo específico cómo esta debe
enseñarse. En ese sentido, Kieran y Filloy consideran que el aprendizaje del álgebra requiere un
cambio en el pensamiento del estudiante de las situaciones numéricas concretas a proposiciones más
generales sobre números y operaciones [2]. El álgebra es una de las ramas más fundamentales e
importantes de las matemáticas; es considerada de gran beneficio en la vida cotidiana de cualquier
persona, por esta razón es importante que los estudiantes de diferentes niveles conozcan y practiquen
álgebra, estos conocimientos serán de gran utilidad a lo largo de toda su formación profesional, de
ahí su gran importancia [3]. Pero es importante mencionar que históricamente las matemáticas es una
de las materias más difíciles para los estudiantes de todos los niveles.
Por lo expuesto anteriormente y ante la pandemia de COVID que vivimos, se ha puesto en evidencia
la necesidad de nuevas herramientas innovadoras de apoyo, para el aprendizaje en general, y en este
caso en particular al álgebra. Las actividades tienen rol esencial en la construcción del conocimiento,
cada materia debe tener actividades concretas, estas actividades deben ser conjuntadas con recursos
didácticos desde los tradicionales hasta los digitales. La herramienta busca apoyar la enseñanza del
álgebra construyendo rectángulos de diferentes tamaños relacionando la multiplicación con el área,
promoviendo la multiplicación y la factorización, además de hacer un análisis de los datos de las
evaluaciones de los estudiantes utilizando Python y Pandas.
141
2 Estado del Arte
Hay diferentes propuestas de apoyo para la enseñanza del álgebra, cada una tiene sus ventajas y
desventajas, enumeraremos en seguida algunas de las más importantes. El desarrollo de herramientas
informáticas ha crecido a lo largo de los años, poniendo ante los profesores universitarios un gran
conjunto de recursos para crear nuevos modelos educativos, que pueden ser utilizados de forma
complementaria a la educación tradicional. La herramienta PSeInt es un software extensamente usado
en múltiples universidades en América Latina, de apoyo en el proceso de enseñanza/aprendizaje del
álgebra lineal, mostrando la propuesta el empleo de la herramienta, siendo un recurso de apoyo para
la programación, a través de sencillo e intuitivo pseudolenguaje basado en español, complementado
con un editor de diagramas de flujo, permitiendo centrarse en los conceptos fundamentales,
proporcionando un entorno de trabajo con ayuda y recursos didácticos [4]. La enseñanza del álgebra
discreta de forma tradicional ocasiona que esta se vea como una materia monótona y pasiva, la
propuesta utiliza recursos didácticos digitales innovadores en la forma de un software educativo, la
incorporación de los recursos digitales en el proceso enseñanza/aprendizaje tuvo los siguientes
beneficios en la enseñanza de la materia: mejora del rendimiento, incidencia positiva en la autoestima
personal del estudiante, promover el aprendizaje significativo, y resultando en una herramienta útil
complementario para el docente [5]. La propuesta desarrollo un entorno virtual de aprendizaje con
contenidos digitales básicos de álgebra para la materia de matemáticas II, teniendo la propuesta
pretest y postest, probándola con estudiantes del primer semestre de la carrera de Ingeniería Petrolera
de la Universidad Autónoma del Carmen entre agosto y diciembre del 2017, la muestra fue dividida
en dos grupos, el primero con 24 estudiantes para el grupo experimental, y el segundo con 41
estudiantes en el grupo de control. Los pretest fueron pruebas objetivas con reactivos de opción
múltiple, con la finalidad de que ambos grupos fueran homogéneos. El entorno virtual de aprendizaje
tomo como modelo el diseño instruccional de la estructura Análisis, Diseño, Desarrollo, Implantación
y Evaluación (ADDIE). Posteriormente a la implementación y utilización del entorno virtual se
aplicó una prueba postest, similar a la primera prueba antes mencionada, resultando fue que los
grupos dejaron de ser homogéneos, donde el grupo experimental obtuvo mejores resultados. La
comparación entre ambos grupos permitió establecer que el grupo experimental obtuvo un mejor
rendimiento académico que el grupo de control. Los estudiantes que utilizaron el entorno virtual de
aprendizaje declararon una opinión positiva respecto a este, y mencionaron que el entorno virtual los
había apoyado en su aprendizaje [6]. La última propuesta que revisaremos fue la denominada PhET,
siendo una iniciativa de la Universidad de Colorado Boulder sin ánimo de lucro, con recursos
educativos explorables, con el objetivo de mejorar la manera de enseñar y aprender la ciencia, por
medio de las simulaciones, tocando diferentes áreas como: física, química, matemáticas, ciencias de
la tierra, y biología. Los simuladores han sido probados y evaluados exhaustivamente para certificar
su confianza. Las pruebas abarcaron entrevistas con estudiante hasta observaciones en el salón de
clase. Las simulaciones utilizan principalmente la tecnología como base HTML 5. PhET afirma que
las simulaciones son completamente de código abierto. Los recursos están disponibles para los
estudiantes y maestros [7]. En el área de matemáticas PhET tiene infinidad de simuladores, y
específicamente en el área de álgebra tenemos la siguiente: Área Model Algebra, siendo esta nuestra
referencia principal para nuestra propuesta [8], las simulaciones son muy interesantes e interactivas,
donde el estudiante puede explorarlos y poner a prueba sus saberes con ejercicios prácticos.
La presente propuesta muestra el desarrollo de una aplicación Web especializada de apoyo para la
enseñanza del álgebra, utilizando el modelo de áreas construyendo rectángulos de múltiples tamaños,
relacionando la multiplicación con el área, promoviendo la multiplicación y la factorización, basada
en el modelo de componentes, este paradigma lo hemos trabajado a lo largo de los años, y hemos
tratado de mejorar en cada una de las propuestas. La propuesta busca servir como una aplicación de
apoyo, que aproveche las ventajas que ofrece la Internet y la Web. La propuesta codifica patrones de
diseño de software para manejar el cambio en el proyecto de software a lo largo de su vida, facilitando
el mantenimiento, la construcción de la Interfaz de Usuario (User Interface, UI por sus siglas en
142
inglés) del Front-end se basa en el paradigma de componentes de software, posibilitándonos construir
componentes reutilizables, mejorando la reutilización. La propuesta tiene como uno de los objetivos
disminuir la sofisticación técnica para crear contenidos educativos multimedia interactivos, yendo
más allá de solo leer, escuchar o ver un video, al permitir practicar a los estudiantes sus saberes con
experiencias prácticas, enriqueciendo sus experiencias.
3 Metodología usada
La propuesta en el Front-end utiliza componentes de software, estos ofrecen tres ventajas importantes: dominar
la complejidad, controlar el cambio, y reutilización [9]. Es importante definir lo que es un componente de
software, referenciaremos para esta definición la de uno de los expertos del área Clemens Szyperski: “un
componente de software es una unidad de composición con interfaces contractualmente definidas y
dependencias de contexto explicitas. Un componente de software puede ser desplegado independientemente y
es sujeto de composición por terceras partes” [10], los componentes fueron nuestras unidades de construcción
de la propuesta. La propuesta para su implementación utilizó la librería React.js para construir el Front-end,
codificando los componentes con ECMAScript 6, la cual representa la mayor actualización de los fundamentos
de JavaScript en la historia del lenguaje, dando sus primeros pasos hacia un lenguaje de Programación
Orientada a Objetos (Object Oriented Programming, OOP por sus siglas en inglés), incorporando finalmente
una manera para declarar clases, instancias, constructores, métodos estáticos, etc., los puntos sobresalientes de
la librería React.js son: gratuita, código libre, JavaScript 100 porciento, funciona con diferentes tipos de Back-
end, construcción de UI, modelo de componentes, Modelo Objeto Documento (Documento Object Model,
DOM por sus siglas en inglés) Virtual, React Native para el desarrollo de aplicaciones móviles, entre otras
[11], pero lamentablemente este no es totalmente soportado por la mayoría de los navegadores Web actuales,
ya que ECMAScript 5 (JavaScript 1.8.5) es la versión soportada por la mayoría de los navegadores Web
actualmente. Para resolver la problemática entre versiones mencionada anteriormente se empleó Webpack, este
es un empaquetador de recursos para aplicaciones JavaScript modernas. Este conjunta archivos JavaScript para
utilizarlos en el navegador Web, además de transformar, conjuntar o empaquetar recursos. Webpack fue
utilizado para compilar módulos de código de JavaScript. Webpack nos permitió la transformación del código
de la versión ECMAScript 6 a la versión ECMAScript 5 para tener compatibilidad al 100% con navegadores
Web actuales, esto se llevó a cabo por medio del cargador llamado babel-loader para transformar el código de
los componentes de propuesta, codificados en ECMAScript 6 a código ECMAScript 5, dado que considerables
navegadores Web actuales no soportan totalmente al 100% ECMAScript 6, mientras que ECMAScript 5 es
soportado ampliamente por los navegadores Web actuales. Después de la instalación de Webpack, se hizo uso
de la interfaz de la línea de comandos (Command Line Interface, CLI por sus siglas en inglés). Webpack nos
permitió manejar las dependencias de contexto, transpilador y empaquetamiento de la propuesta. Para inyectar
el código JavaScript de los componentes React generados por el transpilador en las páginas en el Lenguaje de
Marcado de Híper Texto (Hyper Text Markup Language, HTML por sus siglas en inglés), por medio del plug-
in html-webpack-plugin. Los componentes de la propuesta se mapearon mediante el id del contenedor
respectivo en la página HTML, y de ReactDOM.render() para llevar a cabo la renderización, el método render
lleva dos argumentos, el primero es el elemento que se busca renderizar, en nuestro caso los componentes de
la propuesta, el segundo es el contenedor donde el elemento se renderizara.
La Figura 1 presenta el diagrama de componentes UML mostrando el Front-end del profesor en la propuesta.
El Front-end está completamente implementado utilizando componentes de software con React.js. El primer
componente es el de Login, que se utiliza para validar al profesor en la propuesta, este componente tiene la
dependencia de contexto del componente Crear, Leer, Actualizar y Borrar (Create, Read, Update and Delete,
CRUD por sus siglas en inglés), ya que una vez validado el profesor puede utilizar el componente CRUD para
crear los contenidos/evaluaciones de la propuesta, este tiene cuatro dependencias de contexto con los siguientes
componentes: Borrar, Modificar, Leer y Crear; estos tienen las dependencias de contexto con Material-UI [12]
y React Bootstrap 4 [13], estos son componentes de terceros que podemos utilizamos para la construcción de
la UI de la propuesta. Material-UI es una librería con varios componentes adicionales para crear la UI de nuestra
propuesta, lo que nos ha permitido economizar tiempo, al no tener que escribir los componentes desde cero,
una idea fundamental del modelo de componentes de software, maximizando la reutilización, en nuestro caso
particular hemos utilizado los componentes: Dialog, DialogActions, DialogTitle, y Grid. React Bootstrap 4.
Mientras que React Bootstrap 4 es una librería de componentes que favorecen la composición y control, esta
143
no tiene dependencias de contexto con JQuery [14], en nuestro caso específico se han utilizado los
componentes: Modal, ModalHeader y ModalBody. Posteriormente en la parte inferior de la Figura 1 se presenta
el contenido que contiene los contenidos/evaluaciones de la propuesta, este está compuesto de tres componentes
principales: Contenedor, Contenido y Navegación. El componente Contenedor sirve como recipiente de los
otros dos componentes, donde el componente de Contenido es el más complejo, este componente tiene una
relación de agregación con los componentes: Multimedia, ResultBox1, TableBox1, ResultBox2, y TableBox2,
el componente Multimedia a su vez tiene tres dependencias de contexto con los componentes: Imagen_HTML,
Audio_HTML, y ReactPlayer, con la finalidad de desplegar multimedios en la propuesta. Los otros
componentes ResultBox1, TableBox1, ResultBox2, y TableBox2 son variaciones para construir los
contenidos/evaluaciones de la propuesta, los TableBox en general está compuestos de los siguientes
componentes: boxHeght1, boxHeght2, lineWidth, lineHeight1, y lineHeight2; los ResultBox en general está
compuestos de los siguientes componentes: Teclado, Revisar y Timer. Los componentes TableBox nos
sirvieron para representar el modelo de áreas dinámico de la propuesta, mientras que los componentes
ResultBox sirve para evaluar las respuestas de los estudiantes, compuesto con componentes como el
componente Teclado, siendo este un componente de apoyo para el correcto llenado de la evaluación, el
componente Revisar que es un botón para evaluar la pregunta, y finalmente el componente Timer que es un
temporizador, encargado de tomar el tiempo de los estudiantes.
La Figura 2 presenta la arquitectura integrando el Front-end y Back-end de la propuesta, el patrón Modelo Vista
Controlador (Model View Controller, MVC por sus siglas en inglés) es el principal patrón de diseño del lado
del Back-end, el cual integra los siguientes patrones: Composición, Observador, Singleton, y Objeto de Acceso
a los Datos (Data Access Object, DAO por sus siglas en inglés), para la implementación se realizó con el marco
de trabajo Struts 2 [15], y el servidor Web GlassFish Server 4.1.1 [16]. La base de datos se hizo con MySQL
[17], la cual es el Modelo en el patrón MVC, todo esto se presenta en la Figura 2. Las Vistas son las interfaces
de la propuesta con las que interacciona el usuario dentro del patrón MVC, todas implementadas con la librería
React.js basadas en componentes. El Controlador del patrón MVC se denomina FilterDispatcher en nuestra
propuesta, que en función de la solicitud del usuario lleva a cabo la acción correspondiente y su lógica de
negocios asociada. Las Vistas de la propuesta utiliza componentes para implementar las UI, con componentes
React personalizables, de código abierto, con composición de terceras partes. La propuesta presentada en la
Figura 2 una capa de metadatos, para la serializan los archivos de configuración de los componentes con JDOM
[18]. La Figura 2 presenta la integración de Python por primera ocasión en nuestras propuestas para el análisis
automático de datos, a lo largo de los años hemos utilizado Java en el Back-end en nuestras propuestas, por
esto se presentó la exigencia de integrar Python con Java. Analizando diferentes opciones de integración Python
– Java, siendo las principales las siguientes: Jython [19], JPype [20], Jepp [21], JCC [22], Javabridge [23], Py4J
[24], y p2j [25]; estudiando una a una estas opciones, seleccionado en definitiva Py4J, posibilitando una la
integración con la propuesta, al posibilitarnos ejecutar en Python comandos Java.
144
Fig. 1. Diagrama de Componentes UML presentando el Front-end del profesor de la propuesta.
La persistencia de la propuesta se realizó con Hibernate [26] y Mapeado Objeto Relacional (Object-
Relational Mapping, ORM por sus siglas en inglés), las cuales relacionaron las estructuras del modelo
relacional de la base de datos con las estructuras lógicas en el modelo de OOP. La propuesta
implementó el enlazamiento de las estructuras de la base de datos con entidades lógicas, para
implementar los diferentes CRUD de la propuesta, por medio de: Hibernate, ORM y patrón DAO. El
patrón DAO nos posibilito separar la lógica de negocios de la lógica para accesar a los datos,
delegando al patrón DAO el acceso a los datos desde el Modelo.
145
Fig. 2. Back-end de la propuesta.
Resultados experimentales
La Figura 3 en su sección izquierda muestra el módulo CRUD de contenidos/evaluaciones de la propuesta, es
importante mencionar que la UI para crear contenidos/evaluaciones en la aplicación Web de apoyo a la
enseñanza del álgebra con componentes React, el módulo CRUD tiene habilitadas las siguientes
funcionalidades: Crear nuevo ejercicio, Ver ejercicio, Modificar ejercicio, Eliminar ejercicio y Probar ejercicio;
construida utilizando componentes de terceros de Material-UI y React Bootstrap 4, como se explicó en la Figura
1. La Figura 3 en su sección derecha tenemos un ejercicio del tipo completar dimensiones, como se puede ver
en la imagen del cuadrado se puede modificar los valores del modelo de áreas, presentando en este caso los
valores de 1 en la parte superior, y de 9 en la parte inferior izquierda, este componente en la parte izquierda es
del tipo TableBox1, que nos sirve para presentar el modelo de áreas en la propuesta, en la parte derecha inferior
derecha se presenta el componente del tipo ResultBox1, que en función de los valores del componente
TableBox1 presenta la factorización correspondientes, en este caso la factorización corresponde con (x+1)(x+9)
en vista de los valores previamente mencionados, mostrando el área total que en este caso corresponde con
x2
+10x+9, la idea de este tipo de ejercicio es ejercitar la factorización algebraica, tenemos a continuación el
componente Revisar, que nos sirve para comprobar los datos ingresados, se muestra a continuación el
componente Timer que es un temporizador, encargado de tomar el tiempo de los estudiantes, finalmente es
importante mencionar que el componente de Navegación se muestra en la parte superior de la Figura 3 derecha,
presentando el nombre del contenido/evaluación y a la derecha un botón de Volver al inicio.
Fig. 3. Componente CRUD y ejercicio del tipo completar dimensiones del modelo de áreas.
La Figura 4 presenta dos ejercicios del tipo completar área total, se diferencia del ejercicio anterior ahora
tenemos un componente TableBox2 que no recibe valores del usuario, sino que presenta únicamente el modelo
de áreas correspondiente asignadas por el profesor. La Figura 4 en la sección izquierda muestra el ejercicio del
tipo completar área total, compuesto con los componentes principales: Contenedor, Contenido, Navegación y
Multimedia, el componente Contenido en este caso está compuesto por tres componentes: TableBox2,
ResultBox2 y Multimedia; los dos primeros componentes ya los hemos explicados en la Figura 3, mientras que
el componente Multimedia como se puede ver en este caso muestra un video de apoyo para los estudiantes, con
la idea de apoyarlos para la resolución del ejercicio. La Figura 4 en la sección derecha muestra un segundo
ejercicio soportando multimedios, en este caso un sonido, pero en la sección del ResultBox2 por primera vez
se muestra el componente Teclado, que es una pequeña calculadora para apoyar a los estudiantes a la hora de
poner su respuesta con la notación requerida.
La Figura 5 presenta el análisis de datos automático con el módulo de Python-Pandas, por primera vez en
nuestras propuestas estamos agregando este módulo, con la finalidad de recabar información de los estudiantes
de manera automática para retroalimentación del profesor, la Figura 5 presenta de izquierda a derecha las
siguientes estadísticas: el tiempo de respuesta de cada contenido/evaluación, número de intentos para cada
contenido/evaluación respectivamente, y la complejidad respectiva asociada a cada pregunta. Para este módulo
de análisis de datos automático se valió de las siguientes tecnologías: Python [27], Pandas [28], MySQL, Flask
[29] y Chart.js [30]. Python es un lenguaje de programación con soporte para análisis de datos, siendo junto
con la librería Pandas un estándar de factor para el tratamiento y análisis de datos, se usó MySQL para el
depósito de los datos, Flask se usó debido a que es un marco de trabajo para aplicaciones Web con Python, la
cual es una librería para Python por terceros ampliamente utilizada, que en conjunto Chart.js, sirvió para crear
las gráficas del módulo basadas en HTML 5 y JavaScript.
146
Fig. 4. Ejercicio del tipo completar área total.
Fig. 5. Interfaz del análisis de datos automático para retroalimentación del profesor.
5 Conclusiones y Trabajo Futuro
La presente propuesta muestra una Aplicación Web de apoyo a la enseñanza del álgebra utilizando
el modelo de áreas, la cual permite crear contenidos/evaluaciones multimedia interactivas como
material didáctico de apoyo, reduciendo la elevada complejidad técnica implicada, basadas en el
paradigma de componentes de software con sus ventajas inherentes, la propuesta por primera vez
agrega un módulo de análisis de datos automático para retroalimentación. Todas las UI del Front-end
se codificaron con componentes React.js, mejorando la reutilización, y agregando componentes de
terceros, utilizando componentes pre construidos. El Front-end utiliza el patrón composición con los
componentes React.js, construyendo componentes complejos de la UI de la propuesta en base a
componentes más simples. La propuesta se ha aplicado hasta el momento de forma limitada con
algunos estudiantes, pero estamos trabajando para llevar a cabo una prueba más amplia
próximamente con estudiantes formales del tercer grado de secundaria.
La propuesta empleo para la persistencia MySQL, Hibernate, patrón DAO y MVC, posibilitando que
lo contenidos/evaluaciones de la propuesta sean dinámicas, y actualizables, donde los estudiantes
pueden explorar sus respuestas, poniendo a prueba sus saberes con ejercicios prácticos, la propuesta
ha agregado un módulo de análisis de datos para retroalimentar al profesor, es la primera vez que se
agrega un módulo de análisis de datos automático con Python y Pandas y otras tecnologías, este
módulo tiene mucho trabajo a futuro, mejorando el análisis básico que hemos hecho para la presente
propuesta. La presente propuesta es una aplicación Web teniendo las ventajas siguientes: se puede
147
utilizar a cualquier hora, y desde cualquier lugar, debido a la pandemia de COVID-19 esto ha cobrado
relevancia. La propuesta permite agregar elementos multimedia de apoyo complementarios a los
contenidos/evaluaciones, para retroalimentar a los estudiantes, y puede adicionar nuevas opciones
pedagógicas de acuerdo a las futuras necesidades. La presente propuesta utiliza librerías libres
reduciendo costos por licenciamiento, además de que se ha cuidado la mantenibilidad de la propuesta
para adaptarla a futuras necesidades de los profesores, por medio de los patrones de diseño de
software, que nos permiten actualizar la propuesta de manera continua. El binomio Hibernate-ORM
ha posibilita el mapeado de las estructuras del modelo relacional con estructuras lógicas en el modelo
de OOP, optimizando el mantenimiento, posibilitando escribir la lógica de negocios con el modelo
OOP. En cuanto a trabajo futuro asuntos pendientes: más patrones de diseño de software, codificar
más componentes de contenido/evaluaciones, mejorar el análisis de datos automático, agregar un
módulo de Inteligencia Artificial (Artificial intelligence, IA por sus siglas en inglés), entre otras.
Agradecimientos. Los autores de este artículo agradecen a la Universidad Politécnica de Querétaro,
al Instituto Politécnico Nacional (IPN) y a la Escuela Superior de Cómputo (ESCOM) por su apoyo
para este trabajo dentro del proyecto SIP: 20210896. Los autores desean reconocer a todos sus
colegas y a los estudiantes en general que participaron en el diseño y desarrollo del software, y
materiales de aprendizaje descritos en este artículo, y en particular a los estudiantes: Aguirre Álvarez
Omar, Bravo Mendoza Brandon de Jesús, Martínez Cervantes Xenia Guadalupe, y Rodríguez
Coronado Ricardo.
Referencias
[1]Jorge Petrosino, Integración de la tecnología educativa en el aula enseñando física con las TIC (2013) Buenos Aires,
Argentina.
[2] Róbinson Castro Puche Rubby Castro Puche, Algebra desde una perspectiva didáctica (2014) Bogotá, Colombia.
[3] Javier León Cárdenas, Álgebra (2014) Azcapotzalco, México, D.F., México.
[4]Beúnes J. E., Vargas A.: La introducción de la herramienta didáctica PSeInt en el proceso de enseñanza aprendizaje:
una propuesta para Álgebra Lineal. SciELO Cuba. Vol.15, No. 1. (2019) 147-157.
[5]Quiroga N.: Software educativo que apoye la calidad del proceso enseñanza-aprendizaje de la asignatura de algebra
discreta en la carrera Ingeniería de Sistemas. Revistas Bolivianas. Vol.6, No. 4. (2015) 144-150.
[6]Díaz J. J., de Luna M. del C., Salinas H. A.: Curso de nivelación algebraica para incrementar el rendimiento académico
en estudiantes de ingeniería en un ambiente virtual de aprendizaje. SciELO México. Vol.9, No. 18. (2019) 456-489.
[7] PhET: Free online physics, chemistry, biology, earth science and math simulations, URL: https://phet.colorado.edu/
[8]Area Model Algebra - Polynomials | Factors | Products - PhET Interactive Simulations, URL:
https://phet.colorado.edu/en/simulations/area-model-algebra
[9] Andy Ju An Wang & Kai Qian, Component-Oriented Programming (2008) Georgia, USA.
[10] Clemens Szyperski, Component Software: Beyond Object-Oriented Programming (2002) Boston, MA, USA.
[11] React – A JavaScript library for building user interfaces, URL: https://reactjs.org/
[12] Material-UI: A popular React UI framework, URL: https://material-ui.com/
[13] React-Bootstrap · React-Bootstrap Documentation, URL: https://react-bootstrap.github.io/
[14] jQuery, URL: https://jquery.com/
[15] Welcome to the Apache Struts project, URL: https://struts.apache.org/
[16] GlassFish, URL: https://javaee.github.io/glassfish/download
[17] MySQL, URL: https://www.mysql.com/
[18] JDOM, URL: http://www.jdom.org/
[19] Home | Jython, URL: https://www.jython.org/
[20]JPype documentation - JPype 1.2.2_dev0 documentation, URL: https://jpype.readthedocs.io/en/latest/
[21] Jepp - Python Wiki, URL: https://wiki.python.org/moin/Jepp
[22] JCC · PyPI, URL: https://pypi.org/project/JCC/2.12/
[23] javabridge · PyPI, URL: https://pypi.org/project/javabridge/
[24] Welcome to Py4J - Py4J, URL: https://www.py4j.org/index.html
[25] GitHub - chrishumphreys/p2j: Python to Java translator, URL: https://github.com/chrishumphreys/p2j
[26] Hibernate. Everything data. – Hibernate, URL: https://hibernate.org/
[27] Welcome to Python.org, URL: https://www.python.org/
[28] pandas - Python Data Analysis Library, URL: https://pandas.pydata.org/
[29] Welcome to Flask - Flask Documentation (2.0.x), URL: https://flask.palletsprojects.com/en/2.0.x/
148
[30] Chart.js | Open source HTML5 Charts for your website, URL: https://www.chartjs.org/
149
Laboratorio basado en Web Multimedia de apoyo a la enseñanza de
Fracciones fundado en componentes de software
Rubén Peredo Valderrama 1
Iván Peredo Valderrama 2
1
Escuela Superior de Cómputo del Instituto Politécnico Nacional, Av. Juan de Dios Bátiz S/N esquina con
Miguel Othón de Mendizábal, México, D.F., 07738. México
rperedo@ipn.mx
2
Universidad Politécnica de Querétaro, Carretera Estatal 420 S/N el Rosario el Marqués, México, Querétaro,
CP. 76240.
ivan.peredo@upq.edu.mx
Resumen. La presente propuesta presenta un laboratorio basado en Web multimedia de apoyo a la enseñanza de fracciones
fundado en componentes de software, para desarrollar prácticas en línea bajo el paradigma de Educación Basada en Web
(Web-Based Education, WBE por sus siglas en inglés), basado en estándares del W3C. La propuesta maneja componentes
de software para la composición de la aplicación y multimedios. El laboratorio basado en Web cuenta con varios módulos
para la creación de material educativo didáctico de apoyo a la enseñanza de fracciones, además de hacer un análisis de
datos de las evaluaciones de los estudiantes utilizando Python y Pandas. La propuesta implemento patrones de diseño de
software, resaltando dos: composición, y Modelo-Vista-Controlador (Model-View-Controller, MVC por sus siglas en
inglés). La propuesta posibilita a profesores y estudiantes llevar a cabo prácticas en línea, reduciendo la elevada complejidad
técnica, permitiendo crear materiales educativos didácticos reutilizables de alta calidad para el apoyo bajo el paradigma de
WBE.
Palabras clave: Fracciones, Componentes, Educación Basada en Web, W3C.
1 Introducción
La Internet y la Telaraña Amplia Mundial (World Wide Web, WWW por sus siglas en inglés) han
cambiado a la sociedad actual, permitiendo prácticamente a todo ser humano accesar a información
prácticamente ilimitada, creciendo todos los días de manera exponencial. La Web ha abierto una
ventana de oportunidades extraordinarias y desafiantes, para desarrollar aplicaciones innovadoras de
comunicación para todas las áreas, y en el futuro seguir evolucionando. La pandemia de COVID-19
que estamos viviendo ha evidenciado todavía aún más la importancia de la Internet y la Web en la
sociedad.
La corporación CISCO menciona que la Internet ha cambiado a la sociedad. La educación no ha
estado fuera de este cambio, y ante la pandemia de COVID-19 se han destapado muchas carencias
de las instituciones educativas, obligándolas a reinventarse, teniendo que ver desde una nueva
perspectiva lo que durante mucho tiempo se consideraron temas controversiales en la educación
tradicional como: cursos en línea, tutorías virtuales, especializaciones, etc., para que los estudiantes
puedan continuar con sus estudios, lamentablemente no todo ha resultado exitosamente durante esta
reinvención, ya que la crisis sanitaria que vivimos ha expuesto la necesidad de herramientas
educativas de apoyo innovadoras especializadas, para las diferentes áreas, debido al cierre de las
instituciones educativas tradicionales, no se han podido llevar a cabo ciertas actividades presenciales
tradicionales, mostrando la carencia de una infraestructura de laboratorios en línea [1].
Las Tecnologías de la Información y la Comunicación (Information and Communication
Technologies, TIC por sus siglas en inglés) han transformado todo tipo de actividades, donde la
educación no está excluida de esta transformación, pero que ha dejado todavía promesas incumplidas,
pero esto está cambiando de manera progresiva. Las TIC pueden ser usadas para dar soluciones
creativas a problemas dados, desatando muchas polémicas acaloradas, donde la polémica no debería
ser sobre el papel de las TIC en la educación, la polémica debería ser el lugar que se le atribuye a las
150
instituciones educativas en su puesta en práctica de su función social, considerando a las TIC en el
marco de su función social. Las TIC en la educación tiene sus seguidores y detractores, pero tenemos
que tener una actitud sensata al respecto. Las TIC están con nosotros, para bien o para mal, y cobran
más relevancia día a día en la práctica docente. Las inquietudes que estas generan, deben superarse
con un constante propósito de sacar provecho de las nuevas oportunidades que estas ofrecen. La
disponibilidad cada vez mayor en los salones de clases de las TIC, obliga a la necesidad de
replantearse de nuevo preguntas esenciales, aparte de estar de acuerdo o en desacuerdo, para un
aprendizaje de algún tipo de conocimiento de estas transformaciones que estamos viviendo, para
entender la situación que nos ha tocado vivir. Las metas educativas se pueden conjuntar en general
en dos, el primero es una enseñanza de tipo pragmático, y el segundo es una enseñanza de tipo
epistémica. La enseñanza pragmática busca lograr resultados eficientes, la epistémica busca
transformar la mente del que aprende, las acciones que debe de llevar a cabo cada una son diferentes,
la función epistémica busca cambios en la estructura del pensamiento en los estudiantes, no viéndose
trastornada por la asequibilidad de la información. La integración de las TIC en la enseñanza ofrecen
nuevas oportunidades, y debemos desarrollar aportes que permitan el proceso de integración de las
TIC en la práctica docente, en donde el proceso debe sustentarse de varias propuestas. Con el objetivo
de que el docente haga uso de herramientas digitales para ligarlas con sus prácticas con las TIC. Las
TIC brindan recursos para la enseñanza de múltiples áreas de estudio como: recursos, prácticas,
ejercicios, etc. Pero hay propuestas que hasta el día de hoy pueden hacer aportes significativos. La
Web ofrece una gran cantidad de simulaciones para apoyar la investigación de un concepto o la
simulación de un experimento. Debemos tener en cuenta que las simulaciones son una contribución,
y no deben ser vistas como una suplantación de la práctica real [2].
El razonamiento matemático consiste en la habilidad de interpretar y resolver situaciones
problémicas, comprender las propiedades de las operaciones, analizar los fenómenos y convertirlos
a un lenguaje matemático. El profesor debe propiciar con los estudiantes la curiosidad, en un
ambiente que estimule la investigación y el descubrimiento, fomentando el pensamiento matemático,
abstrayendo y aplicando ideas matemáticas en un extenso intervalo de contextos [3]. Los e-
laboratorios permiten llevar a cabo actividades prácticas por medios electrónicos, un enfoque más
específico y actual son los denominados laboratorios basados en Web (Web Based Laboratory, WBL
por sus siglas en inglés), los laboratorios pueden ser clasificados en tres grandes grupos: Laboratorios
Tradicionales (LT), Laboratorios Remotos (LR), y Laboratorios Virtuales. Los LV y LR puede ser
accesibles a través de una Intranet, Internet, Web o ambientes computacionales, para simular LT con
instrumentos virtuales. Ante la situación actual debido a la pandemia de COVID-19 las desventajas
de los LT saltan a la vista, concentrándonos en este momento en las ventajas de los LV, los cuales
enumeraremos a continuación: accesibles a cualquier hora y desde cualquier lugar, reducción en los
costos de montaje y mantenimiento, el estudiante puede avanzar a su propio paso, reducción de
riesgos con elementos peligrosos, reducción de instrumentos costosos, reducción de insumos caros,
el ambiente virtual puede personalizarse para cada estudiante, entre otras. La organización
Mexicanos Primero [4] aseguró que el programa gubernamental “Aprende en casa”, que es una
estrategia que implementó la Secretaría de Educación Pública (SEP) para la televisión como
respuesta al confinamiento de estudiantes durante la emergencia sanitaria por COVID-19, fracasó.
Los datos preliminares de una investigación de campo que llevo a cabo la organización con 2,000
estudiantes, donde el 61.6% de los estudiantes entre 10 a 15 años no fue capaz de comprender un
texto de cuarto grado de primaria; el 41.8% no entendió un texto de segundo grado de primera y el
14.8% no pudo leer una historia. El diagnóstico se agudiza en el área de las matemáticas, donde el
88.2% de los encuestados no pudo llevar a cabo un problema de tercero de primaria; 36.4% no pudo
llevar a cabo adecuadamente restas simples; el 25.8% no pudo llevar a cabo sumas con acarreo y el
96.5% no pudo llevar a cabo favorablemente operaciones con fracciones, lo que significa en este
último punto que solo 70 de 2,000 estudiantes pudieron llevar a cabo fracciones correctamente [5].
Debido a lo expuesto previamente la pandemia por COVID ha evidenciado la carencia de
151
herramientas de apoyo en diferentes áreas educativas, ha puesto de manifiesto la necesidad por
nuevas herramientas de apoyo innovadoras, para apoyar el aprendizaje en general, y en nuestro caso
en específico en la enseñanza del estudio de las fracciones. Para crear actividades relacionadas las
cuales tienen un rol esencial en la construcción del conocimiento, cada curso de cualquier área debe
contar con actividades específicas, las actividades pueden ser combinadas con recursos didácticos
tradicionales o digitales. La propuesta busca apoyar la enseñanza de las fracciones, construyendo
ejercicios para la enseñanza de las fracciones dinámicos, donde el estudiante puede explorarlos y
poner a prueba sus saberes con ejercicios prácticos.
2 Estado del Arte
Hablando de LV en general tenemos dos iniciativas sobresalientes, la Universidad de Oxford, y la
Universidad de Carnegie Mello se han ocupado durante algún tiempo de los denominados WBL,
accesibles vía Web. En el primer caso tenemos el laboratorio de Química del centro de Química de
Tecnología de la Información (Information Technology, IT por sus siglas en inglés) de Oxford, que
posibilita que los estudiantes hagan experimentación de química en línea, por su parte Carnegie Mello
tiene un laboratorio para experimentación con circuitos eléctricos [6]. En el tema específico de LV
para la enseñanza de fracciones mencionaremos a continuación algunas de las principales iniciativas.
La Universidad Nacional Autónoma de México (UNAM) se ha apoyado en el denominado proyecto
Arquímedes para el desarrollo de contenidos educativos desarrollados por los mismos profesores,
heredero del proyecto Descartes de España. Arquímedes se desarrolló en el Instituto de Matemáticas
(IM) de la UNAM. El objetivo del proyecto es aprovechar las ventajas de las computadoras y de la
Internet para enseñar matemáticas, se ha utilizado Arquímedes para crear contenidos educativos
interactivos de matemáticas para el bachillerato, llevando a cabo para tal fin grupos de trabajo
especializados en el tema. Existen diferentes sitios con recursos digitales que utilizan Arquímedes,
elaborados por diversas dependencias de la misma UNAM como: Dirección General de Cómputo y
de Tecnologías de Información y Comunicación (DGTIC), Dirección General de Evaluación
Educativa (DGEE), entre otras. En el sitio Web del IM de la UNAM en la sección de matemáticas
de aritmética para 1o
de bachillerato, hay una sección de lecciones entre otras cosas con diferentes
ejercicios para fracciones, con texto para matemáticas ilustrados con figuras interactivas [7]. Otra
iniciativa sobresaliente es la mencionada academia Khan, es una organización que no busca
beneficios económicos, fundada por Salman Khan del Instituto Tecnológico de Masachussetts
(Massachusetts Institute of Technology, MIT por sus siglas en inglés), la iniciativa cuenta con
ejercicios de práctica, videos y un tablero de aprendizaje personalizado, siendo su pieza clave los
videos alrededor de cual gira todo, comprendiendo temas diversos como: ciencias, economía,
historia, historia del arte, informática, matemáticas, etc., la iniciativa cuenta con varias secciones con
videos de fracciones, complementadas con evaluaciones simples [8]. En la academia Khan los videos
tiene un papel fundamental como se mencionó anteriormente, con sus respectivas limitaciones
inherentes de interactividad asociadas a este tipo de multimedio, siendo los videos los contenidos
educativos. Geogebra es una iniciativa sobresaliente en el aprendizaje de las matemáticas para
diferentes niveles educativos, comprendiendo temas diversos como: algebra, estadística, geometría,
graficación, cálculo, etc. [9], la iniciativa cuenta con recursos educativos interactivos interesantes,
donde los profesores pueden crear recursos educativos para diferentes niveles educativos, también la
propuesta soporta evaluaciones interactivas, la propuesta integra una interactividad sobresaliente, a
pesar de esto su interactividad es limitada en conjunto con su manejo de multimedios. La iniciativa
PhET no busca beneficios económicos, es remarcable señalar que cuenta con recursos educativos
donde los estudiantes pueden explorar y experimentar, mostrando un nuevo enfoque innovador en la
enseñanza y aprendizaje de la ciencia, basándose en simulaciones computacionales, comprendiendo
temas diversos como: biología, ciencias de la tierra, física, matemáticas y química. Los simuladores
han sido probados y evaluados plenamente para autentificar su confiabilidad. Las pruebas van desde
entrevistas con los estudiantes hasta comentarios en el salón de clase. Las simulaciones
152
computacionales utilizan diferentes tecnologías como: Flash, Java, y Lenguaje de Marcado de Híper
Texto (Hyper Text Markup Language, HTML por sus siglas en inglés) 5. PhET comenta que todas
las simulaciones son de código abierto. Los recursos educativos están disponibles tanto para
estudiantes como para maestros [10]. En el área de matemáticas PhET se cuenta con una gran
variedad de simuladores computacionales, y concretamente en el área de fracciones cuenta con las
siguientes opciones: Fracciones: Intro, Fracciones: números mixtos, Parejas de Fracciones,
Construye una fracción, Fracciones: Igualdades; siendo estas nuestras referencias fundamentales para
nuestra propuesta. Algunos simuladores computacionales de PhET usaron en su momento la
tecnología de la Plataforma Adobe Flash, pero actualmente ya no hay simuladores computacionales
que la utilicen, ya que desde el año 2021 no se podrán ejecutar en navegadores Web actuales [11],
las simulaciones computacionales son interesantes e interactivas, posibilitando que los estudiantes
puedan explorarlos y poner a prueba sus saberes en ejercicios prácticos.
La presente propuesta presenta el desarrollo de un laboratorio basado en Web multimedia
especializado de apoyo para a la enseñanza de las fracciones, construyendo fracciones a partir de
formas y números con soporte para Arrastrar y Soltar (Drag An Drop), basada en componentes de
software. La propuesta tiene como objetivos ser una herramienta de apoyo en la enseñanza de las
fracciones, beneficiándose de las ventajas que brinda la Internet y la Web. La propuesta hace uso de
patrones de diseño de software para controlar las actualizaciones en la propuesta, la construcción del
Front-end se basa en de componentes de software para la construcción de la Interfaz de Usuario (User
Interface, UI por sus siglas en inglés), permitiéndonos construir componentes complejos en base a
componentes más simples. La propuesta busca rebajar la complejidad técnica asociada para crear
contenidos educativos multimedia interactivos, beneficiándose de las oportunidades que proporciona
la Internet y la Web, posibilitando ejercicios interactivos multimedia, donde los estudiantes ponga
sus saberes a prueba con experiencias prácticas donde puedan experimentar, enriqueciendo sus
experiencias.
3 Metodología usada
La propuesta en el Front-end se basa completamente en componentes de software, debido a tres puntos
esenciales: conquistar la complejidad, lidiar con el cambio, y reusó [12]. Los componentes software son unidad
de composición con interfaces contractualmente definidas y dependencias de contexto explicitas, además
pueden ser desplegado independientemente y son sujeto de composición por terceras partes [13], los
componentes fueron nuestras unidades de construcción de la UI del Front-end de la propuesta. La
implementación de la propuesta se llevó a cabo por medio de la librería React.js, codificando los componentes
con ECMAScript 6, esta es posiblemente la mayor actualización de JavaScript, soportando por primera vez las
clases entre otras cosas, transformándolo progresivamente en un verdadero lenguaje de Programación
Orientada a Objetos (Object Oriented Programming, OOP por sus siglas en inglés). La librería React.js tiene
varios puntos sobresalientes por los cuales fue seleccionada para la propuesta como: es gratuita, código libre,
totalmente JavaScript, funciona con diferentes tipos de Back-end, permite la construcción de UI, basada en
componentes, Modelo Objeto Documento (Documento Object Model, DOM por sus siglas en inglés) Virtual,
React Native para el desarrollo de aplicaciones móviles, entre otras [14]. La mayoría de los navegadores Web
actuales soportan ECMAScript 5 (JavaScript 1.8.5), y pocos soportan ECMAScript 6, debido a esta situación
se utilizó un transpilador para convertir el código desde ECMAScript 6 a la versión ECMAScript 5, para llevar
a cabo esta tarea se empleó Webpack, que es un empaquetador de recursos para aplicaciones JavaScript
modernas. Webpack llevó a cabo la degradación del código por medio de los denominados cargadores, en el
caso de la propuesta se hizo uso del babel-loader. La inyección del código resultado del transpilador en páginas
HTML se llevó a cabo por medio del plug-in html-webpack-plugin y del cargador html-loader, por medio de
la etiqueta HTML script. Los componentes de la propuesta se mapearon a través del contenedor relativo a la
página HTML, con ReactDOM.render() se llevó a cabo la renderización de los componentes de la propuesta,
el método render lleva dos argumentos, el primero es el componente que se busca renderizar, el segundo es el
contenedor donde el componente se renderizara.
153
La Figura 1 presenta el diagrama de componentes UML mostrando el Front-end de la propuesta. El
Front-end fue totalmente llevado a cabo con componentes de software utilizando la librería React.js,
y para la implementación Arrastrar y Soltar (Drag An Drop) de la propuesta, se utilizó la librería
react-dnd [15]. En la parte superior de la Figura 1 se presenta el componente App siendo este el
contenedor de todo nuestro Front-end, este componente a su vez contiene el componente UserContext
con el estado del usuario, a su vez este componente contiene el componente GameContext con el
estado del juego, contenido a su vez tenemos el componente Layout que mantiene la distribución de
nuestro Front-end, en la parte izquierda tenemos el componente Login que es el componente para
validar usuarios, este tiene la dependencia con el componente Form, y a su vez este tiene las
dependencias con los componentes: Button, Input, UseForm; este último componente mantiene el
estado de la forma, además se tiene la dependencia con el componente const que contiene los valores
de: niveles de figuras, niveles de números, y formas. El componente Levels presenta los niveles y
tiene la dependencia con el componente LevelsContainer, que es un contenedor del componente
LevelCard que tiene la dependencia con los componentes: Stars, Image, Audio y Video; que muestran
en los niveles la información del nivel con su respectivo multimedio asociado si es el caso. Los
componentes Edit y NewLevel tienen las dependencias con los componentes Form y const, los cuales
como su nombre lo indican para editar y crear nuevos niveles de la propuesta. El componente
LevelView presenta un nivel especifico y tiene la dependencia con el componente Level, que a su
vez tiene las dependencias con los componentes: OptionsBox, Answers, SideBar y DragFigureBox;
donde el primero representa las opciones de las cajas, el segundo muestra y verifica si las respuestas
son correctas, el tercero es la barra de navegación en la parte izquierda del nivel con las opciones:
regresar y refrescar la página, el último representa la caja de la figura arrastrable; OptionsBox tiene
la dependencia con el componente Figure que representa las figuras de opción para resolver el
ejercicio, que en nuestro caso son los círculos que utilizamos para la propuesta, Answers tiene las
dependencias con los componentes: AnswerBox y Fraccion, el primero representa la caja de
respuesta, mientras que el segundo es la fracción con su numerador y denominador, estos se ve en la
parte derecha del componente Level; finalmente SideBar tiene la dependencia con el componente
NavigationBtn, el cual establece los enlaces de navegación. La propuesta implementa un Crear
(NewLevel), Leer (Levels), Actualizar (Edit) y Borrar(Delete) (Create, Read, Update and Delete,
CRUD por sus siglas en inglés), una vez validado el profesor puede utilizar el componente CRUD
distribuido a lo largo de la propuesta, para crear los contenidos/evaluaciones didácticas de fracciones
de la propuesta.
Fig. 1. Diagrama de Componentes UML presentando el Front-end de la propuesta.
154
La Figura 2 presenta el diagrama de despliegue de la propuesta, presentando el Front-end y Back-end de la
propuesta, el patrón Modelo Vista Controlador (Model View Controller, MVC por sus siglas en inglés) es el
patrón principal del lado del Back-end, el cual conjunta los patrones: Composición, Observador, Singleton, y
Objeto de Acceso a los Datos (Data Access Object, DAO por sus siglas en inglés), para la implementación se
llevó a cabo con el marco de trabajo Struts 2 [16], y el servidor Web GlassFish Server 4.1.1 [17]. La base de
datos se implementó con MySQL [18], que en conjunto con las clases del middleware de acceso a la base de
datos conforman el Modelo. Las Vistas son las UI de la propuesta con las que interacciona el usuario, todas
implementadas en React.js y con componentes personalizados, permitiendo agregar componentes propios y de
terceros en conjunto con el patrón composición, para construir componentes más complejos, el Front-end se
ejecuta desde un navegador Web. El Controlador en Struts 2 se llama FilterDispatcher, que de acuerdo a la
solicitud del usuario ejecuta la acción correspondiente y su lógica de negocios asociada si es el caso. En la
Figura 2 se puede ver un módulo denominado MetadatosXML, que tiene la dependencia de la librería JDOM
para gestionar los archivos XML de configuración de los componentes [19]. En la Figura 2 también se puede
ver un módulo de subida de archivos (Uploading), que nos permitió subir los multimedios asociados a los
contenidos/evaluaciones, posibilitando enriquecer las experiencias de los estudiantes, al ser estos materiales de
apoyo complementario. La Figura 2 muestra el módulo con Python de nuestra propuesta para el análisis
automático de datos, debido a que hemos utilizado Java en el Back-end en nuestra propuesta, se tuvo la
necesidad de conjuntar Python con Java. Examínanos diferentes posibilidades de conjuntar Python – Java, las
más importantes fueron las siguientes: Jython [20], JPype [21], Jepp [22], JCC [23], Javabridge [24], Py4J [25],
y p2j [26]; analizando ventajas y desventajas de cada una, optando finalmente por Py4J, permitiendo una la
integración con la propuesta, permitiéndonos ejecutar en Python comandos Java.
El módulo de persistencia se llevó a cabo con Hibernate [27] y el Mapeado Objeto Relacional
(Object-Relational Mapping, ORM por sus siglas en inglés), relacionando las estructuras del modelo
relacional de la base de datos con estructuras lógicas en el modelo de OOP, mejorando la
mantenibilidad. Para la funcionalidad se implementaron diferentes CRUD en la propuesta, en
conjunto con: Hibernate, ORM y patrón DAO. El patrón DAO permitió separar lógica de negocios -
lógica para accesar a los datos, delegando al patrón DAO el acceso a los datos desde el Modelo. En
la Figura 2 se puede ver que aparte de la dependencia de Hibernate, también se tiene la dependencia
del driver MySQL JDBC.
Fig. 2. Diagrama de Despliegue UML de la propuesta.
Resultados experimentales
La Figura 3 en su sección izquierda muestra los contenidos/evaluaciones multimedia interactivas con fracciones
que en el LV se hayan creado, después de que se haya validado el usuario por medio del componente de Login,
en esta sección izquierda lo que estamos viendo desplegado es el componente Levels con sus respectivas
dependencias, sobresaliendo el componente LevelsContainer, a su vez con sus dos dependencias: LevelCard y
Stars, en este caso en particular se puede ver que en este caso específico solo se dispone de un ejercicio con
título: QUINTOS, de nivel 1, además cuenta en este caso con un sonido con las instrucciones para el ejercicio
en la forma de un archivo en formato mp3, en la parte inferior de la Figura 1 se dispone de la opción Crear un
nuevo nivel y cerrar sesión, la primera opción permite crear nuevos contenidos/evaluaciones multimedia
interactivas con fracciones, la segunda sale de la sesión del usuario y lo regresa al componente de Login para
155
validarse nuevamente. La Figura 3 en su sección derecha es la opción cuando damos clic al enlace Crear un
nuevo nivel, donde lo que vemos desplegado es el componente NewLevel con sus respectivas dependencias,
sobresaliendo el componente Form en la Figura 1, una vez llenado el formulario la producción de
contenidos/evaluaciones multimedia interactivas con fracciones lleva unos segundos, lo que muestra la
conquista la complejidad técnica para producir materiales educativos de apoyo a la enseñanza de las fracciones.
Fig. 3. Listado y creación de ejercicios multimedia interactivos para fracciones.
La Figura 4 en su sección izquierda se muestra el contenido/evaluación multimedia interactivas con fracciones
creado previamente en la Figura 3, mostrando el componente LevelView con su respectiva dependencia del
componente Level, con sus correspondientes dependencias sobresaliendo: OptionsBox, Answers, y SideBar;
donde OptionsBox es la caja mostrada en el fondo de la Figura con tres círculos con las fracciones: 1, 3, y 5;
5 5 5
mientras que Answers se encuentra en la parte derecha de la Figura 4 y son las cajas con las respuesta esperadas
con la respectiva fracción buscada; SideBar es la barra de navegación mostrada en la parte izquierda de la
Figura 4 con las opciones: regresar y refrescar; en el este caso específico de la Figura 4 el estudiante está
resolviendo el ejercicio planteado por el profesor, habiendo colocado como respuestas hasta el momento: 1 y
5
2. La Figura 4 en su sección derecha prácticamente es la misma que la anterior con la diferencia de que el
5
estudiante ha completado todas las respuestas, y el componente Answers lo ha evaluado positivamente. En las
dos Figura 4 en la parte inferior tenemos dos imágenes, una un engrane y la segunda un bote de basura, para
representar las funcionalidades de editar y borrar el ejercicio.
La Figura 5 presenta el gráfico del análisis de datos automático con el módulo de Python-Pandas, con el
objetivo de colectar información de los estudiantes de forma automática para retroalimentación del profesor,
la Figura 5 presenta una gráfica combinada con las métricas: tiempo de respuesta, número de intentos y
complejidad; esta información se obtuvo de los registros de la base de datos, analizándose con Python [28] y
Pandas [29], para ser presentados con Flask [30] y Chart.js [31]. Python es un lenguaje de programación con
soporte para análisis de datos, en conjunto con la librería Pandas en los últimos años se ha convertido en un
estándar de factor para el tratamiento y análisis de datos, los datos se obtuvieron de MySQL como depósito de
los datos, Flask se usó en la propuesta ya que es un marco de trabajo para aplicaciones Web con Python, la cual
es una librería ampliamente utilizada, que en junto con Chart.js, permitió crear las gráficas del módulo basadas
en HTML 5 y JavaScript.
Fig. 4. Resolución y evaluación de ejercicios multimedia interactivos con fracciones.
156
Fig. 5. Interfaz del gráfico del análisis de datos automático para retroalimentación del profesor.
5 Conclusiones y Trabajo Futuro
La presente propuesta presenta un WBL de apoyo a la enseñanza de fracciones, el cual ha posibilitado
crear contenidos/evaluaciones multimedia interactivas como material didáctico de apoyo,
conquistando la elevada complejidad técnica implícita, fundada en componentes de software, la
propuesta añade un módulo de análisis de datos automático para retroalimentación. Toda la UI del
Front-end se implementó con componentes React.js, añadiendo componentes de terceros pre
construidos. El Front-end construyo los componentes de la UI complejos en base a componentes más
simples de acuerdo al patrón composición en el Front-end. Los materiales didácticos de apoyo a la
enseñanza de las fracciones pueden ser construido en minutos reduciendo la complejidad técnica
involucrada.
La persistencia se llevó a cabo con: MySQL, Hibernate, patrón DAO y MVC, permitiendo que lo
materiales didácticos de apoyo de la propuesta sean dinámicos, y actualizables, pero además de esto
los estudiantes pueden poner a prueba sus saberes, explorando sus respuestas con ejercicios prácticos,
la propuesta ha añadido un módulo de análisis de datos para retroalimentar al profesor, con Python -
Pandas y otras tecnologías, el módulo hace un análisis muy sencillo de los resultados, teniendo mucho
trabajo por delante, ya que se requiere mejorar el análisis básico que se ha llevado a cabo para la
presente propuesta. La presente propuesta es un WBL con las siguientes ventajas: se puede utilizar a
cualquier hora, y desde cualquier lugar, siendo esto oportuno ante la pandemia por COVID-19 que
estamos viviendo. La propuesta posibilita añadir elementos multimedia de apoyo complementarios a
los materiales didácticos de apoyo, para apoyar a los estudiantes en la resolución de sus ejercicios,
es posible adaptar los materiales didácticos de apoyo actuales a nuevas iniciativas pedagógicas
futuras. La propuesta ha buscado utilizar librerías y marcos de trabajo libres, con la finalidad de
reducir los costos de licenciamiento del prototipo a lo mínimo, con la finalidad de que en versiones
de producción los costos sean lo más bajos posible, los patrones de diseño de software han permitido
una mejor gestión del cambio del proyecto, para adaptarlo a requerimientos futuros. La integración
de tecnologías: Hibernate-ORM, DAO, y MVC ha mejorado la escalabilidad de la propuesta. Hay
muchos asuntos como trabajo a futuro que se pueden mejorar, mencionado solo algunos: patrones de
diseño de software adicionales, codificar más componentes pre construidos, llevar a cabo un análisis
de datos automático más profundo, añadir un módulo de Inteligencia Artificial (Artificial
intelligence, IA por sus siglas en inglés), entre otras.
Agradecimientos. Los autores de este artículo agradecen a la Universidad Politécnica de Querétaro,
157
al Instituto Politécnico Nacional (IPN) y a la Escuela Superior de Cómputo (ESCOM) por su apoyo
para este trabajo dentro del proyecto SIP: 20210896. Los autores desean reconocer a todos sus
colegas y a los estudiantes en general que participaron en el diseño y desarrollo del software, y
materiales de aprendizaje descritos en este artículo, y en particular a los estudiantes: Becerril Bernal
Malinali, Leal Hernández César, Reyes Medrano Alexis Daniel, y Rodríguez Coronado Ricardo.
Referencias
[1]¿Internet nos ha cambiado la vida?, URL: https://www.muyinteresante.es/tecnologia/articulo/iinternet-nos-ha-
cambiado-la-vida
[2]Jorge Petrosino, Integración de la tecnología educativa en el aula enseñando física con las TIC (2013) Buenos Aires,
Argentina.
[3] Róbinson Castro Puche Rubby Castro Puche, Algebra desde una perspectiva didáctica (2014) Bogotá, Colombia.
[4] Mexicanos Primero. Solo la educación de calidad cambia a México, URL: https://www.mexicanosprimero.org/
[5]'Aprende en casa' fracasó, acusa Mexicanos Primero, URL: https://www.forbes.com.mx/aprende-en-casa-fracaso-
mexicanos-primero/
[6] C. C. Ko, B. M. Chen, J. Chen, Creating Web-Based Laboratories (2014), USA.
[7] Aritmética, URL: http://newton.matem.unam.mx/arquimedes/aritmetica/index.html
[8]Intro to fractions (video) | Fractions intro | Khan Academy, URL: https://www.khanacademy.org/math/cc-third-grade-
math/imp-fractions/imp-fractions-intro/v/fraction-basics
[9] FRACCIONES – GeoGebra, URL: https://www.geogebra.org/m/ZTH8dPrR#material/DeJ8EJW9
[10] PhET: Free online physics, chemistry, biology, earth science and math simulations, URL: https://phet.colorado.edu/
[11] Adobe anuncia la muerte de Flash, URL: https://www.eluniversal.com.mx/articulo/techbit/2017/07/26/adobe-anuncia-
la-muerte-de-flash
[12] Andy Ju An Wang & Kai Qian, Component-Oriented Programming (2008) Georgia, USA.
[13] Clemens Szyperski, Component Software: Beyond Object-Oriented Programming (2002) Boston, MA, USA.
[14] React – A JavaScript library for building user interfaces, URL: https://reactjs.org/
[15] React DnD, URL: https://react-dnd.github.io/react-dnd/about
[16] Welcome to the Apache Struts project, URL: https://struts.apache.org/
[17] GlassFish, URL: https://javaee.github.io/glassfish/download
[18] MySQL, URL: https://www.mysql.com/
[19] JDOM, URL: http://www.jdom.org/
[20] Home | Jython, URL: https://www.jython.org/
[21]JPype documentation - JPype 1.2.2_dev0 documentation, URL: https://jpype.readthedocs.io/en/latest/
[22] Jepp - Python Wiki, URL: https://wiki.python.org/moin/Jepp
[23] JCC · PyPI, URL: https://pypi.org/project/JCC/2.12/
[24] javabridge · PyPI, URL: https://pypi.org/project/javabridge/
[25] Welcome to Py4J - Py4J, URL: https://www.py4j.org/index.html
[26] GitHub - chrishumphreys/p2j: Python to Java translator, URL: https://github.com/chrishumphreys/p2j
[27] Hibernate. Everything data. – Hibernate, URL: https://hibernate.org/
[28] Welcome to Python.org, URL: https://www.python.org/
[29] pandas - Python Data Analysis Library, URL: https://pandas.pydata.org/
[30] Welcome to Flask - Flask Documentation (2.0.x), URL: https://flask.palletsprojects.com/en/2.0.x/
[31] Chart.js | Open source HTML5 Charts for your website, URL: https://www.chartjs.org/
158
Objeto de aprendizaje para la enseñanza de las estructuras de repetición
utilizando dispositivos móviles y realidad aumentada
José Rafael Rojas Torres, Claudia Zepeda Cortés, Hilda Castillo Zacatelco,
José Luis Carballido Carranza, Carmen Cerón Garnica
Benemérita Universidad Autónoma de Puebla,
Facultad de Ciencias de la Computación,
Calle 4 sur 104, Colonia Centro, Puebla, Puebla. 72000. México
rafael07.rojas@gmail.com, czepedac@gmail.com
Resumen. Actualmente, el desafío para las universidades reside en rediseñar propuestas didácticas que
involucren el trabajo colaborativo para el fomento de un aprendizaje significativo y el incremento
progresivo en la actividad docente de la utilización de los recursos educativos electrónicos que combinen
diferentes aproximaciones más creativas y colaborativas. En este trabajo se propone desarrollar un Objeto
de Aprendizaje que apoye a los estudiantes interesados en aprender, conocer o reforzar los conocimientos
referentes a las estructuras de repetición, las cuales parten de las estructuras de control, necesarias para la
elaboración de algoritmos y programas. Estas estructuras son tratadas en las materias que cubren las bases
de la metodología de la programación para cursos del área de programación.
Palabras clave: Objeto de aprendizaje, realidad aumentada, enseñanza.
1Introducción
El proceso de aprendizaje ha pasado de ser estático, a tener una gran movilidad, los estudiantes
requieren de una mayor diversidad de espacios y recursos, es por esto por lo que el aprendizaje en
movimiento ha surgido como apoyo a estas necesidades [1]. Se han generado nuevos apoyos para el
aprendizaje de un tema o tópico en específico y, entre estos nuevos apoyos, han arribado los objetos
de aprendizaje (OA). Un OA es cualquier entidad digital o no digital que puede ser usada, re-usada
o referenciada para el aprendizaje soportado en tecnología; su uso se refiere a la creación de entidades
digitales con la intención de que puedan ser consultadas por diferentes personas y reutilizadas en
múltiples aplicaciones, esto para apoyar la adquisición de conocimiento o bien como instrumento
para reforzar el ya adquirido [2].
En los últimos 15 años los sistemas educativos universitarios han propiciado una serie de alternativas
y propuestas para la educación utilizando Internet como medio de comunicación y tratando de
desplazar en un alto porcentaje las clases presenciales [3]. Asimismo, entre los diferentes desafíos
que surgen para las instituciones de educación superior, se ubica el de rediseñar propuestas didácticas
que involucren el trabajo colaborativo para el fomento de un aprendizaje significativo y el incremento
progresivo en la actividad docente de la utilización de los recursos educativos electrónicos que
combinen diferentes aproximaciones más creativas y colaborativas [3]. Al mismo tiempo en [3]se
indica que ha sido corroborado en diferentes estudios internacionales que las herramientas de realidad
aumentada muestran alto niveles de satisfacción cuando el alumnado utiliza esta tecnología y también
muestran el aumento significativo de los niveles de motivación por parte del alumnado, potenciando
escenarios formativos más motivadores, colaborativos e interactivos.
De aquí que en este trabajo se describe una propuesta acerca del desarrollo de un OA que apoye en
la enseñanza universitaria a alumnos interesados en aprender, conocer o reforzar los conocimientos
referentes a las estructuras de repetición, las cuales parten de las estructuras de control necesarias
para la elaboración de algoritmos y programas. Estas estructuras son tratadas en aquellas materias
que contienen tópicos relacionados con la metodología de la programación, misma que es el punto
de partida y base de los cursos del área de programación subsecuentes.
Por tanto, el objetivo de este trabajo es describir el desarrollo e implementación de un OA para la
159
enseñanza de las estructuras de repetición utilizando dispositivos móviles y realidad aumentada.
Aquí, las estructuras de repetición serán mostradas en dos de las principales representaciones de
algoritmos: Diagrama de Flujo y Pseudocódigo.
2 Estado del arte
Existen diversos trabajos relacionados al tema, donde se argumenta la importancia de las
herramientas que contribuyen en el proceso de aprendizaje-enseñanza, específicamente del área de
programación, fortaleciendo así los conocimientos de lógica. Sin embargo, no existe ninguno
enfocado en la enseñanza de las estructuras de repetición utilizando como herramienta a los
dispositivos móviles y la realidad aumentada, razón por la que este trabajo propone integrar estas tres
características. En esta sección damos un panorama reducido del estado del arte relacionado con este
trabajo.
La aplicación Nozomu [4], se realiza específicamente para dispositivos móviles con sistema
operativo Android, permitiendo que los estudiantes por medio de teoría, ejemplos, ejercicios y
evaluaciones conozcan, fortalezcan y refuercen sus conocimientos básicos de la lógica de
programación que son fundamentales para el aprendizaje de cualquier lenguaje de programación o el
desarrollo de cualquier aplicación. Este trabajo está dirigido a apoyar los procesos de aprendizaje de
los conceptos más elementales de la lógica de programación teniendo en cuenta las dificultades que
los estudiantes de primeros semestres poseen a la hora de intentar adquirir estos conocimientos,
aprovechando diferentes ventajas y facilidades que ofrecen las tecnologías móviles.
En [5] se describe a EPRA, un material educativo digital que utiliza realidad aumentada para el
desarrollo de una serie de actividades con diferentes intenciones didácticas para la enseñanza de
programación. Este material educativo consiste en un sitio web a través del cual los alumnos pueden
complementar los conceptos teóricos y prácticos vistos en los cursos introductorios de programación.
EPRA propone incluir a la realidad aumentada como una estrategia complementaria que pueda
ayudar al alumno a vivenciar conceptos abstractos que se abordan en el primer año de la carrera.
Por último, en [6] se describe un OA enfocado en la enseñanza de asignaturas de ingeniería en
informática. Este OA enfoca la problemática que se presenta en los tópicos de mayor dificultad al
momento de estudiar la asignatura de informática. Cada tópico es representado mediante conceptos
y una pequeña visualización en realidad aumentada para mejorar la comprensión de los siguientes
temas: Matrices, Listas ligadas y Apuntadores.
3 Metodología usada
El concepto llamado diseño instruccional representa el proceso sistémico, planificado y estructurado
que se debe llevar a cabo para producir materiales educativos eficaces y efectivos, utilizando
tecnología, cuyo fin es desarrollar en el estudiante las competencias suficientes para el aprendizaje
[7]. ADDIE [8] es uno de los procesos de diseño instruccional existentes, donde los resultados de la
evaluación formativa de cada fase pueden conducir al diseñador instruccional de regreso a cualquiera
de las fases previas. ADDIE es el acrónimo del proceso de diseño instruccional, atendiendo a sus
fases: diseño, desarrollo, implementación, análisis y evaluación de propuestas formativas. Por los
propósitos de este trabajo, la metodología que se siguió en este trabajo sigue el proceso de diseño
instruccional ADDIE.
3.1 Análisis
Los entregables de esta etapa son los bloques de actividades, además se selecciona el tipo de
aprendizaje que resulta más adecuado y otros aspectos clave. Para el caso del OA que se desarrolló,
160
el tema principal abordado son las Estructuras de Repetición, acompañado de los siguientes
subtemas: definición y clasificación de las estructuras de repetición, estructura Para, estructura
Mientras, estructura Repite-Hasta. Es importante mencionar que los ciclos de repetición planteados
son sencillos puesto que es la primera parte y al mismo tiempo lo que más cuesta comprender como
primer acercamiento a la programación. Ciclos con un máximo de 20 repeticiones, sin anidamientos
y sobre todo secuenciales. El OA está pensado en los alumnos de nuevo ingreso de la Facultad de
Ciencias de la Computación o cualquier persona que desee empezar a programar. Las actividades
que se incluyen en el OA pueden ser de diferentes tipos, como introductorias, intermedias, de
autoevaluación y finales. Las actividades que se incluyen en este OA son las siguientes: introducción
al OA, introducción a los conceptos básicos manejados en el OA, dirigidas a comprender qué son y
para qué sirven las estructuras de repetición, descripción de la estructura PARA y su función,
descripción de la estructura MIENTRA y su función, descripción de la estructura REPETIR-HASTA
y su función, evaluación de las estructuras de repetición, y retroalimentación del OA.
3.2 Diseño
Está basado en las actividades descritas durante la etapa de análisis y finaliza con un esquema que
incluye una serie de aspectos tales como: objetivos de aprendizaje, medidas de evaluación y
estructura del proceso.
El objetivo de aprendizaje del OA aquí descrito es apoyar para que el alumno maneje conceptos
básicos de las estructuras de repetición, así como el uso e implementación de estas para la resolución
de problemas. La estructura del proceso que se siguió para el OA se planteó mediante storyboards.
Un storyboard, también conocido como guion gráfico, es un compuesto de dibujos secuenciales que
ilustran los planos de la aplicación audiovisual para el OA [9]. A manera de ejemplo, en las Fig.1 y
Fig. 2, se muestran escenas incluidas en el storyboard del OA. La Escena 1 da un primer
acercamiento al OA poniendo en contexto al usuario dando una breve descripción del OA y una
bienvenida. La Escena 2 muestra un menú de navegación para permitir la movilidad entre los temas.
La Escena 3 muestra la introducción del tema central, las estructuras de repetición acompañada de
una imagen alusiva al tema. La Escena 4 comienza abordando la primera estructura de repetición, “el
ciclo Para”, se inicia con una breve descripción acompañada de una imagen y dos botones que nos
conducen a escenas subsecuentes de la explicación del tema.
Escena: 1 Escena: 2
Descripción: Muestra es una
pequeña presentación sobre los
OAs.
Descripción: Muestra un menú para acceder
a los apartados que contiene el OA.
Fig. 1. Escenas 1 y 2 del OA.
Nuestro OA no solo consta de la aplicación móvil, también está integrada por el recurso interactivo
en realidad aumentada, algunas de las escenas de los storyboads del OA fueron diseñadas para ello
de la siguiente forma. Se muestran cubos flotando alrededor de la pantalla, mediante la cámara, el
161
usuario deberá encontrar todos los cubos a su alrededor (esto es gracias al giroscopio del teléfono
celular) y con una luz que sale del centro deberá ir seleccionando todos los cubos, se muestra además
un contador, mostrando los cubos que va capturando. El ciclo usado puede ser el “ciclo mientras”
mostrando así que mientras no se capturen los 20 cubos la actividad continua. De esta manera se
muestra que el uso de las estructuras de repetición puede ser incluido en nuestro entorno, por ejemplo,
en algo tan simple como lo es un juego.
Escena: 3 Escena: 4
Descripción: En esta escena se muestra
la introducción de las estructuras de
repetición con imágenes.
Descripción: En esta escena se
muestra la introducción del ciclo Para
con imágenes alusivas al tema.
Fig.2. Escenas 3 y 4 del OA.
3.3 Desarrollo e implementación
El OA fue implementada como una aplicación móvil, es por ello que se optó por usar el IDE Android
Studio, acompañado del Motor grafico Unity con SDK Vuforia para el desarrollo de nuestro recurso
didáctico de realidad aumentada, y por último Sony Vegas para los videos de apoyo que se integrarán
en el OA. Para poner en práctica la aplicación se utilizó un celular Motorola modelo MotoG6, este
modelo de celular fue elegido porque es un teléfono de gama media-baja y siendo un teléfono
estándar está ligeramente por encima de las características mínimas que se requieren para correr
ambas aplicaciones. El primer paso es tener alojadas las aplicaciones dentro del teléfono, de momento
los archivos APK se encuentran dentro de una carpeta en Google drive (véase Fig. 3), al tener el link
lo único que se debe hacer es descargarlos desde un ordenador o desde el mismo dispositivo móvil.
Una vez que tenemos las aplicaciones en el teléfono lo que sigue es instalarlas (véase Fig. 4). Ahora
es momento de ejecutar nuestras aplicaciones y observar el comportamiento de cada una (véase Fig.
5).
162
Fig. 3. Carpeta de Google Drive donde se alojan los APK.
Fig. 4. Vista de la instalación de los APK en el Dispositivo Móvil.
Fig. 5. Vista del Dispositivo Móvil ejecutando la aplicación.
3.3 Evaluación y resultados
La evaluación del desempeño del OA se llevó a cabo con un grupo de 20 estudiantes de primer semestre la
Facultad en Ciencias de la Computación de la Benemérita Universidad Autónoma de Puebla, con la ayuda de
sus dispositivos móviles (teléfonos con diferentes características). Se optó por utilizar la rúbrica mencionada
en [10], favoreciendo así la identificación de las áreas de oportunidad y fortaleza dentro del aprendizaje de cada
estudiante. La rúbrica diseñada y utilizada se muestra en la Tabla 1.
ASPECTO
EXCELENTE
(3)
SUFICIENTE
(2)
INSUFICIENTE
(1)
DEFICIENTE
(0)
DISEÑO
La aplicación
demuestra un
diseño moderno e
innovador.
Adecuado al
público para el
que fue diseñado.
La aplicación
demuestra un
diseño aceptable y
sobresale dentro
de otras
aplicaciones de su
tipo y estilo.
La aplicación
demuestra un
diseño poco
atractivo y no
relacionado al
público para el
que fue pensado y
diseñado.
La aplicación
demuestra un diseño
anticuado que no
genera ningún
atractivo para
cualquier tipo de
público.
MANEJABI
LIDAD
Es intuitiva y
sencilla de
utilizar. Adecuada
para el público
para el que esta
Demuestra un
manejo sencillo,
pero podría
generar dudad si
no se utiliza en el
Presenta un
manejo
complicado,
requiere de
competencias
No es intuitiva y
demuestra ser de
manejo altamente
complicado ya que
requiere de
163
designada. nivel educativo
adecuado.
específicas para su
uso.
conocimientos y
competencias
específicos..
CALIDAD
Manifiesta una
calidad excelente
desde el punto de
vista educativo.
Presenta una
calidad aceptable,
aunque mantiene
ciertas carencias
didácticas o
educativas.
No destaca por su
calidad ya que ni
la instructiva ni su
lenguaje están
adaptados al nivel
educativo
designado.
Pésima calidad ya
que presenta errores
ortográficos o
gramaticales, un
lenguaje incorrecto
y escaza instructiva.
UTILIDAD
Se puede usaren el
aula para
complementar la
construcción de
aprendizajes de
los estudiantes.
Aporta
información
valiosa y apoya al
docente, pero, no
complementa los
aprendizajes de
estudiantes.
Solo aporta
información no
relevante y no se
hace
indispensable en
el aula.
No es relevante y no
aporta ningún dato o
información nueva a
estudiantes o
docentes.
OBSERVACIONES: TOTAL:
Tabla 1. Rúbrica utilizada para la evaluación del OA.
Del recopilado de la rúbrica se obtuvieron los resultados que se muestran en la Tabla 2.
EXCELENTE SUFICIENTE INSUFICIENTE DEFICIENTE
DISEÑO 40% 45% 10% 5%
MANJEBILIDAD 65% 30% 5% 0%
CALIDAD 55% 20% 25% 10%
UTILIDAD 70% 30% 0% 0%
Tabla 2.Resultados de la rúbrica utilizada para la evaluación del OA.
Al recopilar las observaciones de cada uno de los estudiantes y englobarlas, se puede concluir que la
aplicación logra el objetivo de ser un apoyo a los estudiantes, sin embargo, se pueden mejorar aún
diferentes aspectos y también enriquecerla con otras actividades en realidad aumentada.
4 Conclusiones y futuras investigaciones
En este trabajo se muestra el desarrollo de un OA que funciona sobre un dispositivo móvil y que está
dirigido a apoyar a los estudiantes interesados en aprender, conocer o reforzar los conocimientos
referentes a las estructuras de repetición que se revisan en cualquier curso de introducción a la
metodología de la programación. Debido a que actualmente casi el 100% de los estudiantes de nivel
superior cuentan con un dispositivo móvil, este trabajo representa una muestra del alcance que puede
tener una aplicación con fines educativos y que se apoya de la realidad aumentada. El uso de realidad
aumentada para desarrollar aplicaciones que impacten en ámbitos educativos, apoyando la labor de
enseñanza-aprendizaje, podría ser aplicado en la enseñanza de todos los niveles, lo que puede verse
como trabajo a futuro que se desprende de este proyecto. Como trabajo a futuro y gracias a la
excelente sugerencia de un revisor, se podría buscar integrar de una mejor manera el manejo de la
realidad aumentada, para darle más dinamismo al OA, de tal manera, que no fuera solo capturar
cubos, sino mostrar los datos del avance en el ciclo y dejar decidir al usuario si captura o no un nuevo
cubo, permitiéndole acertar o equivocarse, para que comprenda mejor el funcionamiento de las
estructuras de repetición.
Referencias
[1] J. Bonet y F. Fargueta. Área de sistemas de información y comunicaciones. Los objetos de aprendizaje como recurso
para la docencia universitaria: criterios para su elaboración. Instituto de Ciencias de la Educación. España, 2011.
[2] L. García. MOOC. Objetos de aprendizaje. Contextos Universitarios Mediados, 2013.
164
[3] J. Cabero, E. Vázquez y E. López. Uso de la Realidad Aumentada como Recurso Didáctico en la Enseñanza
Universitaria. Universidad de Sevilla, 2018.
[4] L. S. Hernández, L. Cortés y M. Leonardo. Aplicación para Dispositivos Móviles con Sistema Operativo Android para
el Aprendizaje de Conceptos Básicos de Lógica de Programación. Universidad Distrital Francisco J. C., 2017.
[5] N. Salazar, G. Gorga y C. Sanz. EPRA: Herramienta para la Enseñanza de Conceptos Básicos de Programación
utilizando Realidad Aumentada. Instituto de Investigación en Informática, 2015.
[6] C. Flórez y F. Buriticá. Realidad Aumentada aplicada a Objetos de Aprendizaje para asignaturas de Ingeniería
Informática. Politécnico Colombiano Jaime Isaza Cadavid, 2013.
[7] Ministerio de Educación Nacional Colombiano. Objetos Virtuales de Aprendizaje e Informativos, 2018.
[8] C. Belloch. Diseño Instruccional. Unidad de Tecnología Educativa. Universidad de Valencia, 2017.
[9] J. Sánchez. Introducción a la Educación Mediática Infantil: El diseño del StoryBoard, 2011.
[10] I. D. Piedra, I. E. Erana, N. Segura, A. H. Fuentes y M. V. López. Delineando Criterios para la Evaluación de
Tecnología Educativa, 2018.
165
VII. E-Learning
166
Modelo Instruccional Basado en Inteligencias Múltiples
Xochitl de Jesus Rojas, Carmen Santiago, Yeiny Romero, Claudia
Zenteno, Gustavo Rubín, Judith Pérez
Facultad de Ciencias de la Computación,
Benemérita Universidad Autónoma de Puebla.
Av. San Claudio, Blvd. 14 Sur, CU, 72592, Pue., Pue., México
xochitl.de@alumno.buap.mx, {marycarmen.santiago, yeiny.romero,
ana.zenteno, gustavo.rubin, judith.perez}@correo.buap.mx
Resumen. El educativo tradicional ha dejado de lado aspectos importantes como
la forma en cómo aprenden los estudiantes. Por otro lado, la pandemia debido al
COVID-19 ha venido a acelerar la incorporación de las TIC al proceso de E-A sin
embargo la instrucción mediante materiales en línea aún deja mucho que desear
sobre los verdaderos aprendizajes de los estudiantes. En el artículo se propone una
metodología y un modelo instruccional que permite ofrecer recursos para el
proceso E-A de estudiantes que se adecuan a la forma en cómo aprenden,
considerando las inteligencias múltiples y el modelo ASSURE. El resultado un
modelo instruccional que ha permitido hoy contar con una serie de recursos
disponibles para los estudiantes de la materia de Metodología de la Programación
de Facultad de Ciencias de la Computación.
Palabras Clave: E-Learning, Modelo Instruccional, Inteligencias Múltiples,
Modelo ASSURE, Plataformas en Línea.
Introducción
Al hablar de educación es necesario que tengamos en cuenta que los estudiantes son los que toman el papel
principal y la educación no solo debe de tratarse de lo que el alumno es capaz de memorizar o puede hacer,
también debe de estar centrada en cómo el estudiante es capaz de recibir el conocimiento, ¿qué puede hacer
con dicho conocimiento?, ¿cómo esto le afecta a la sociedad? y ¿cómo le afecta o beneficia asimismo?, por
lo tanto se establece lo siguiente: “la educación debe contribuir al desarrollo global de cada persona”, sin
duda, para lograr alcanzar este objetivo se deben de considerar muchos aspectos para poder tener una
educación centrada en el estudiante, algunos de estos aspectos son[1]:
● El alumno necesita un orientador, un tutor y/o un docente.
● Foros donde puede apoyarse para la mejora de su conocimiento.
● El uso de las TIC 's.
● Programas y servicios donde pueda incrementar y poner a prueba su conocimiento.
Si bien es importante considerar estos aspectos, también es importante saber cómo es que el modelo educativo
que se ha utilizado hasta ahora es tan plural y esto ha afectado a los estudiantes. Es claro que, si un estudiante
no obtiene los conocimientos suficientes en un sistema de aprendizaje secuencial, en un futuro cuando se vea
en la necesidad de utilizar sus conocimientos previos es muy posible que falle, o sea muy difícil para él obtener
buenos resultados. Esto se puede dar puesto que en un sistema educativo en el que 40 alumnos o más
comparten un profesor, es muy evidente, que en dicha situación se presente una amplia gama de habilidades
y muy poco tiempo para tener o llevar a cabo un enfoque personalizado.[2]
167
Retomando un poco este último aspecto y centrándose en las diferencias de cómo aprenden los estudiantes se
debe considerar la teoría de las inteligencias múltiples que son las que cada individuo desarrolla y que van de
la mano de cómo aprende. La teoría de las Inteligencias Múltiples (IM) fue desarrollada por Howard Gardner
en el año 1983 y se basa en la idea de que no existe una única inteligencia, sino que ésta tiene múltiples
facetas que deben ser cultivadas en las aulas. Así, el autor identifica ocho tipos de inteligencia diferentes
(lingüística, lógico-matemática, visual-espacial, musical, kinestésica, interpersonal, intrapersonal y
naturalista).[3] Vea la tabla 1.
Tabla 1. Definición de las 8 Inteligencias Múltiples de Howard Gardner.
INTELIGENCIA DESCRIPCIÓN
Lingüistas Tienen la capacidad de usar palabras de manera efectiva, ya sea mediante la
escritura o de manera oral, por lo tanto, todas aquellas habilidades que tienen que
ver con la redacción, y usos del lenguaje son realmente el fuerte de esta
inteligencia.
Intrapersonales Es el conocimiento de sí mismo y la habilidad para adaptar las maneras de actuar a
partir de ese conocimiento, se debe de tener una imagen precisa de uno mismo.
Interpersonales Es la capacidad de percibir y establecer distinciones en los estados de ánimo, las
intenciones, las motivaciones, y los sentimientos de otras personas, son sensibles a
las expresiones, los gestos y la voz, son buenas sus habilidades para responder de
manera afectiva.
lógico matemática Es aquella que tiene la capacidad para usar los números, entiende bien los
esquemas y relaciones lógicas, las afirmaciones y las proposiciones, se desarrollan
de una manera exitosa categorizando, clasificando y generando cálculos.
corporal-kinética o
Kinestésica
Tienen capacidad para usar su cuerpo para expresarse, tienen facilidad para
producir y transformar cosas, también tienen algunas habilidades físicas como la
coordinación, equilibrio, destreza y percepción de medidas.
Auditiva o musical Es la capacidad de percibir sonidos y formas musicales, tienen sensibilidad al
ritmo, tonos, melodías
Visual Tienen la habilidad para percibir el mundo visual, espacial, tienen sensibilidad a la
temperatura, formas, espacios, relaciones entre los elementos, capacidades visuales
y representación gráfica.
Naturalista Tienen habilidades para la comprensión de la naturaleza, también sus habilidades
para la observación, comprensión de hipótesis.
Ante esto, las IM se define como: “un potencial psicobiológico para procesar información que se puede activar
en un marco cultural para resolver problemas o crear productos que tienen valor para una cultura”.
Si analizamos éstas, observamos la importancia que se otorga al contexto como potenciador de las
capacidades de las personas. Gardner no niega el componente genético, pero insiste en que las inteligencias
se pueden activar o inhibir en función de las oportunidades que se le ofrecen o se le dejan de ofrecer a un
sujeto en cuestión. Estas oportunidades dependen del ambiente, la educación y la cultura, de aquí la
trascendencia de la escuela, la familia y la sociedad en general para que todos los individuos puedan
desarrollar al máximo sus capacidades intelectuales. Considerando la relevancia que la escuela tiene en el
proceso educativo y formativo de las personas, resulta evidente que los docentes deben buscar la mejor manera
de favorecer el desarrollo integral de sus alumnos. Y no cabe duda de que el hecho de trabajar las IM puede
ser una buena estrategia a la hora de potenciar las capacidades de cada uno.[4]
Es necesario considerar un desarrollo complementario incluyendo la educación, familia y sociedad, así como
todos los aspectos que estos engloban para que el estudiante sea capaz de desarrollar todo su potencial, sin
168
olvidar que es necesario tener presentes las IM, puesto que esto será una pauta muy importante de cómo el
individuo se desarrollará.
Por otro lado, una propuesta para mejorar la educación es la implementación de la tutoría. En México, la
implantación de programas de tutoría en el nivel superior atiende la necesidad de potenciar la formación
integral de los estudiantes y uno de sus principales retos consiste en lograr que una proporción elevada de
alumnos alcance niveles de desempeño académico favorables para culminar satisfactoriamente sus estudios
en los plazos previstos. [1] Si bien la tutoría es una buena opción para la mejora educativa del alumno, no
siempre resulta exitosa pues depende además de medios económicos, de docentes que verdaderamente
comprenden el modelo con una formación en este sentido y principalmente de la comprensión y sensibilidad
de éstos.
Por la parte tecnológica, revisemos que apoyos se tienen para la educación. Inicialmente hablaremos de IBM
EDUCATION el cual nos presenta una tecnología cognitiva la cual ayuda a que profesores y estudiantes
mejoren sus resultados, desde el jardín de niños hasta el primer empleo. Con las soluciones y servicios de
IBM EDUCATION, se puede personalizar el aprendizaje, aumentar la capacidad de investigación y optimizar
las operaciones. Al conectar estos servicios a sistemas cognitivos (como IBM Watson), crearán un gran
avance para la industria, que beneficiará tanto a los profesionales de la educación como a los estudiantes.[5]
Los sistemas cognitivos emplean inteligencia artificial (IA) y aprendizaje automático (Machine Learning),
por lo que son fundamentalmente diferentes de las computadoras que les precedieron. Mientras los equipos
tradicionales deben ser programados por los seres humanos para llevar a cabo tareas específicas, los sistemas
cognitivos aprenden de sus interacciones con los datos y los seres humanos, siendo capaces, en cierto sentido,
de programarse así mismos para llevar a cabo nuevas tareas. En esta era cognitiva, las computadoras se
adaptarán a la gente. Ellas interactúan con nosotros en formas que son más “humanas”.[6]
Las modalidades educativas a distancia (EaD) y virtuales, que aprovechan el advenimiento de los dispositivos
electrónicos los cuales son cada vez más poderosos y versátiles, junto con el incremento de la capacidad de
almacenamiento, organización y recuperación de datos a menor costo, están permitiendo la adopción de los
sistemas de educación basados en la Web, sistemas e-Learning (del inglés electronic Learning, aprendizaje
electrónico) o Entornos Virtuales de Aprendizaje (EVA). Los EVA consisten en una colección de
herramientas informáticas integradas que facilitan la administración del aprendizaje en línea, generando un
mecanismo de entrega, seguimiento del estudiante, evaluación y acceso a los recursos.[7] Los entornos
virtuales tienen la gran ventaja de que registran todas las acciones de los usuarios, generando grandes
cantidades de datos, que procesándolos permiten realizar el seguimiento del proceso de enseñanza
aprendizaje.[6] Éstos sistemas brindan información de cómo son usados, de esta manera, permite el estudio
de los datos para hacer correcciones, o permitirles a los usuarios una mejor experiencia en el futuro, así como
al profesor le puede ayudar a conocer las debilidades y fortalezas de sus alumnos.
Con el enfoque de la personalización del conocimiento y priorizar la manera en cómo aprende el estudiante,
se retoma el análisis de la generación de los contenidos que se le muestran al estudiante.
En el modelo ASSURE se incorporan los eventos de instrucción de Robert Gagné para asegurar el uso efectivo
de los medios en la instrucción, este modelo tiene sus raíces teóricas en el constructivismo, partiendo de las
características concretas del estudiante, sus estilos de aprendizaje y fomentando la participación activa y
comprometida del estudiante. ASSURE presenta seis fases o procedimientos:[8]
1. Analizar las características del estudiante: nivel de estudios, edad, características sociales, físicas,
etc. y conocimientos previos, habilidades y actitudes.
2. Establecimiento de objetivos de aprendizaje determinando los resultados que los estudiantes deben
alcanzar al realizar el curso, indicando el grado en que serán conseguidos.
3. Selección de estrategias, tecnologías, medios y materiales, más apropiado, más adecuados y que
169
servirán de apoyo a los estudiantes para el logro de los objetivos.
4. Organizar y desarrollar el escenario de aprendizaje que propicie el aprendizaje, utilizando los medios
y materiales seleccionados anteriormente.
5. Se requiere la participación de los estudiantes mediante estrategias activas y cooperativas
6. Evaluación y revisión de la implementación y resultados del aprendizaje. Llevará a la reflexión sobre
el mismo y a el diseño instruccional para mejoras que redunden en una mayor calidad de la acción
formativa.
Metodología
El Modelo ASSURE nos permite realizar un planteamiento de un modelo instruccional cuya implementación
nos requirió realizar una investigación en distintas plataformas donde actualmente se imparten cursos de
diferentes niveles educativos, así como de diferentes áreas, sobre la manera de estructurar los contenidos.
2.1 Análisis de plataformas de e-learning
En el análisis de las plataformas se revisaron cuatro, producto de un sondeo en donde resultaron las más
usadas para la capacitación en cursos de TI online por estudiantes de la Facultad de Ciencias de la
Computación, las cuales son COURSERA, UDEMY, Tutellus y Platzi. Al realizar este análisis se
identificaron los siguientes puntos clave sobre la estructura de los cursos:
 Introducción al curso.
 Material teórico de cada tema- ejemplos prácticos de dicho material.
 Prácticas para realizar, dichas prácticas no se evalúan.
 Evaluación de cada material, evaluación de todo el contenido.
En la mayoría de los casos el material está centrado en 4 puntos principales, los cuales constan de un video
introductorio, en el cual se presenta el contenido que se mostrará al alumno, cuales se esperan que sean los
conocimientos adquiridos, posterior al material de introducción se muestra material teórico de cada tema, en
algunas plataformas se incluyen ejemplos al ver el material teórico, y en algunas otras se muestran ejemplos
en un tercer material, el cual retoma algunos puntos a manera de ejemplo, después de ver cierta cantidad de
contenido se plantean prácticas, éstas pueden ser a modo de tareas, que si bien no tienen una calificación, se
pueden subir a la plataforma para que sean revisadas por otros estudiantes los cuales pueden dejar algún
comentario para enriquecer su aprendizaje, estas prácticas también se pueden tomar desde una perspectiva
de seguimiento, es decir, el profesor implementa dicha práctica y el estudiante va siguiendo las instrucciones,
esto solo para algunas plataformas. Finalmente hablamos de la evaluación la cual en su mayoría constan de
preguntas de opción múltiple y son realmente cortas puesto que no superan los 10 reactivos, estas evaluaciones
se realizan al término de un tema, o al término de un bloque establecido de temas.
2.2 Propuesta del modelo para la creación del material
Considerando los 4 puntos clave del análisis de las plataformas y tomando en cuenta el modelo ASSURE, sin
olvidar que el estudiante es el elemento principal en el tema de educación, se definen los siguientes elementos
que conforman la propuesta del modelo instruccional.
 Material teórico
 Ejemplos
 Evaluaciones
Y es que si bien, el modelo educativo que se ha seguido hasta ahora no es del todo idóneo para todos los
estudiantes, con esta propuesta se pretende que el material educativo que se presente se adapte a la manera
170
en la que los estudiantes aprenden.
Para la creación del material teórico inicialmente se considera la evaluación de la inteligencia del estudiante
con el objetivo de obtener algunas de las características del tipo de aprendizaje más idóneo para él (vea el
Apéndice), esto se establece teniendo en cuenta la característica del modelo ASSURE la cual nos indica
analizar como el estudiante aprende, dicho planteamiento será nuestro punto de partida para el seguimiento a
su aprendizaje, el modelo ASSURE resalta que hay que tener en cuenta los objetivos que se pretenden que
alcance el estudiante, esto se tiene en cuenta ya que los materiales creados tienen como objetivo cumplir con
el contenido del temario de la materia “Metodología de la Programación”.
La selección de estrategias que se emplearon en la conformación del material están basadas en algunas de las
características más relevantes de cada inteligencia, así como que cada persona no solo maneja una sola
inteligencia, sino varias de ellas, finalmente la evaluación de cada una de nuestras estrategias es el punto que
nos ayuda a saber si el conocimiento aprendido hasta el momento de la evaluación ha sido exitoso y, en caso
de que el estudiante no tenga resultados exitosos se provee aplicarle más preguntas enfocadas a su tipo de
inteligencia para así reafirmar que el contenido que le ha sido proporcionado sea el correcto o en su caso
analizar la efectividad de éste.
Dicho lo anterior, los materiales se clasificaron en tres grupos atendiendo a las distintas inteligencias y a las
características de éstas.
 En el grupo 1, tenemos a las inteligencias lingüista, intrapersonal e interpersonal, éstas se
caracterizan por tener una mayor facilidad con la lectura, así como con la extracción o análisis de
información, por lo que se les asoció con un material teórico a manera de lectura cuidando que la
extensión sea suficiente.
 En el grupo 2, tenemos a las inteligencias musical, visual y naturalista, las cuales tienen mayor
habilidad para extraer información a través de materiales visuales como diagramas, videos, películas,
etc., y habilidades auditivas, por lo que se les asoció con un material teórico a manera de video, para
que tanto musicales, naturalistas como visuales pudieran obtener el conocimiento.
 En el grupo 3, tenemos a las inteligencias kinestésica y lógico matemática, a estos tipos de
inteligencias les proporcionamos información a manera de diagramas, puesto que ambas
inteligencias tienen grandes habilidades para la experimentación y el análisis de problemas.
2.3 Modelo de Diseño Instruccional
El modelo de diseño instruccional que se propone si bien ha sido el resultado de considerar las características
y fases propias del modelo ASSURE y del análisis de la estructura de contenido en plataformas de enseñanza,
se requiere que inicialmente se realice un test de inteligencias múltiples al usuario y con lo cual obtendremos
información sobre cómo el alumno aprende “… capacidad específica de entrada: conocimientos previos,
habilidades y actitudes” y “…los medios que serían más adecuados para aprender: texto, imágenes, video,
audio, y multimedia”, que corresponden a las fase 1 y 3 del modelo ASSURE. Vea Figura 1.
Posterior a dicho test, se inicia con la presentación de los contenidos 1. material teórico, 2. Ejemplos y 3.
Evaluaciones, en el formato que requieren sus inteligencias más desarrolladas.
171
Fig. 1 Propuesta de Modelo de Diseño Instruccional
2.4 Creación del material educativo
Para la construcción del contenido de un curso/asignatura usando el modelo propuesto, primero se realizó una
división de los temas con apoyo de un docente del área quién cuenta con experiencia impartiendo la
asignatura, por lo cual todos los temas que engloba el curso de la materia Metodología de la Programación
fueron divididos en secciones, con el fin de otorgar gradualmente un material al estudiante y además se
comprenda las relaciones entre los distintos conceptos de los temas. La división de contenido se puede ver en
la Figura 2 y 3.
BLOQUE TEMAS
Bloque 1- unidad 1
1.1 Estrategias de resolución
Analogía
Divide y vencerás
Bloque 2- unidad 1 1.2 Arquitectura funcional
1.3 Algoritmos
1.4 Variables computacionales
1.5 Operaciones aritméticas y lógicas.
1.6 Expresiones
Bloque 3- unidad 1
1.7 Diagramas de flujo
1.8 Pseudocódigo
1.9 Prueba o traza del algoritmo
1.10 Estructura de secuencia
Bloque 4- unidad 1
1.11 Estructura de control
Condicional simple
Condicional doble
Condicional múltiple
Bloque 5- unidad 1
1.12 Estructura de repetición
Ciclos con contador
Ciclos condicionales
Ciclos anidados
Fig. 2 División por secciones de la unidad 1.
172
BLOQUE TEMAS
Bloque 1- unidad 2
2.1 Arreglos unidimensionales
2.2 Aplicaciones sobre arreglos unidimensionales
Ordenamiento burbuja, selección e inserción
Búsqueda secuencial y binaria
Bloque 2- unidad 2 2.3 Manejo de cadenas
Bloque 3- unidad 2 2.4 Arreglos bidimensionales
Bloque 4- unidad 2
2.5 Registros
Definición
Acceso a registros
Arreglo de registros
Bloque 1- unidad 3
3. 1 Introducción
3.2 Concepto de módulo
3.3 Ventajas de modularidad
3.4 Procesos de modularización
3.5 Llamada a los módulos
Bloque 2- unidad 3
3.6 Paso de parámetros
Bloque 1- unidad 4
4.1 Sistema operativo
Funciones principales
Clasificación
Bloque 2- unidad 4
4.2 Unidades de almacenamiento
Bloque 3- unidad 4
4.3 Traductores e intérpretes
4.3.1 Ensambladores y macroensambladores
4.3.2 Compiladores
4.3.3. Intérpretes
4.3.4 Cargadores
Bloque 4- unidad 4
4.4 Lenguaje de programación
Definición
Clasificación
Bloque 1- unidad 5
5.1 Definición de la herramienta
5.2 Descripción de la herramienta
5.3 Uso de la herramienta
Fig. 3 División por secciones de la unidad 2, 3, 4 y 5.
El objetivo de proveer de materiales teóricos permite hacer llegar al alumno de un contenido necesario para
la comprensión del tema o temas al que se haga referencia, este contenido es resumido y muestra los conceptos
principales y esenciales de cada tema, en el mismo contenido teórico mostramos ejemplos, a diferencia de las
plataformas en las que se muestran ejemplos separados del contenido teórico, lo que se pretende con esto, es
que el alumno vea implementadas dichas definiciones de manera inmediata y en caso de que algo no quede
claro pueda repasar el contenido teórico antes de avanzar.
Los contenidos teóricos se crearon en diversos formatos a decir: videos, diagramas/esquemas y materiales de
lectura. Este material se generó considerando las inteligencias múltiples y los grupos definidos en 2.2, por lo
que en la tabla 2 se muestra la asociación de cada material a las inteligencias.
Tabla 2. Asignación de cada material teórico correspondiente con cada inteligencia
INTELIGENCIA MATERIAL
173
Lingüistas Lectura
Intrapersonales Lectura
Interpersonales Lectura
lógico matemática Esquema o diagrama
Kinestésica Esquema o diagrama
Auditiva Video
Visual Video
Naturalista Video
Es importante mencionar que se diseñaron 3 distintos formatos de materiales teóricos y se cuidó que todos
tuvieran el mismo contenido, por lo tanto, un alumno sin importar el formato del material teórico que se le
presente será capaz de responder igual que un alumno que aprende con un material de un formato distinto.
Dentro del modelo propuesto se considera la evaluación, que corresponde a la fase 6 del modelo ASSURE,
evaluación del aprendizaje. Además, ésta es tomada en cuenta en todas las plataformas analizadas por lo cual
se consideró incorporar evaluaciones pequeñas (2 o 3 reactivos) y su realización de manera continua en
nuestro modelo, de esta manera y posterior a un material teórico y ejemplos, se realiza una evaluación que
permite monitorear dos cosas 1. El aprendizaje del estudiante (si ha aprendido) 2. Evaluar el contenido del
tema con vía de mejoras.
Para esta evaluación se construyeron bancos de preguntas, cada banco cuenta con 10 reactivos esperando
aplicar reactivos distintos al alumno en caso de fallar en una evaluación. Todos los reactivos cuentan con 4
incisos y el alumno deberá de revisar con detalle para dar una respuesta correcta.
Finalmente, hay que comentar que resultado de esta metodología planteada y modelo de diseño instruccional
propuesto le resumimos que, se generaron los materiales listados en la tabla 3 correspondientes a la unidad 1
de la materia propuesta.
Tabla 3. Material elaborado
No. FORMATO DE MATERIAL
12 Videos formato mp4
11 Diagramas
11 Bancos de preguntas. Con 10 preguntas c/u
Conclusiones y trabajos futuros
En este trabajo enfocamos al estudiante como el actor principal en el proceso enseñanza-aprendizaje,
identificando sus inteligencias múltiples y proveyendo de material de aprendizaje adecuado por lo que se
espera que tenga una mejor experiencia de aprendizaje y un mayor grado de aprovechamiento en la materia
de Metodología de la Programación. Adicionalmente con ello podremos abrir paso a nuevas oportunidades
tanto educativas como profesionales, mejorando sus habilidades ya que cada alumno tiene una forma de
aprender y que probablemente no es la que había utilizado, y por lo tanto los alumnos serán beneficiados al
tener una educación dinámica y personalizada.
Se esperan las primeras pruebas de ésta metodología en una plataforma propietaria y con ello procesar las
evaluaciones que nos ayude a identificar áreas de oportunidad en el modelo y la metodología propuestas, así
como la retroalimentación de la metodología y el proceso de optimización en los recursos didácticos
174
generados.
Referencias
[1] Romo López A., La tutoría, Una estrategia innovadora en el marco de losprogramas de atención a estudiantes,
ANUIES.
[2] Spencer K.: La aplicación de Malawi enseña a los alumnos del Reino Unido 18 meses de matemáticas en seis
semanas. BBC, www.bbc.com/news/technology-29063614. (6 de Septiembre del 2014). Accedido el 20 Marzo del
2021.
[3] Gorriz B.: Inteligencias Múltiples,
https://www.academia.edu/32466588/Inteligencias_m%C3%BAltiples_Inteligencias_m%C3%BAltiples
[4] Nadal Vivas B.: Las inteligencias múltiples como una estrategia didáctica para atender a la diversidad y aprovechar
el potencial de todos los alumnos. Revista nacional e internacional de educación inclusiva, pp. 121-136 (2015)
[5] IBM Education, IBM, https://www.ibm.com/mx-es/industries/education, Accedido el 10 de Marzo del 2021.
[6] Urribari L.: Analitica del aprendizaje en un entorno virtual mediante un sistema de computación cognitiva: estudio
preliminar, Educ@cion en contexto (2016)
[7] Huapaya, C., Lizarralde, F., Arona, G., Vivas, J., Massa. S., Bacino, G., Rico, C. & Evans, F.. (2012). Uso de
Ambientes Virtuales de Aprendizaje en la Enseñanza de la Ingeniería. Agosto 15, 2021, de Universidad Nacional de
La Plata Sitio web:
http://sedici.unlp.edu.ar/bitstream/handle/10915/23651/Documento_completo.pdf?sequence=1&isAllowed=y
[8] Belloch, C.. (2013). Modelo ASSURE de Heinich y col.. Agosto 15, 2021, de Universidad de Valencia Sitio web:
https://www.uv.es/bellochc/pedagogia/EVA4.wiki?3
Anexo
Test de inteligencias múltiples
Inteligencia lingüística
¿los libros son muy importantes para mí?
¿Oigo las palabras en mi mente antes de leer, hablar o escribirlas?
¿Me aportan más la radio o unas cintas grabada que la televisión o las películas?
¿Me gustan los juegos de palabras como el Scrabble, el Anagrams o el Password?
¿Me gusta entretenerme o entretener a los demás con trabalenguas, rimas absurdas o juegos de palabras?
¿En ocasiones, algunas personas me piden que les explique el significado de las palabras que utilizo (escritas u
orales)?
¿En el colegio asimilaba mejor la lengua y la literatura, las ciencias sociales y la historia que las matemáticas y las
ciencias naturales?
¿Aprender a hablar o leer otra lengua (inglés, francés o alemán, por ejemplo) me resulta relativamente sencillo?
¿Mi conversación incluye referencias frecuentes a datos que he leído o escuchado?
¿Recientemente he escrito algo de lo que estoy especialmente orgulloso o que me ha aportado el reconocimiento de
los demás?
Inteligencia lógico-matemática
¿Soy capaz de calcular operaciones mentalmente sin esfuerzo?
¿Las matemáticas y/o las ciencias figuraban entre mis asignaturas favoritas en el colegio?
¿Me gustan los juegos o los acertijos que requieren un pensamiento lógico?
¿Me gusta realizar pequeños experimentos del tipo «¿Qué pasará si...?» (por ejemplo, «¿Qué pasará si duplico la
cantidad de agua semanal para regar el rosal?»)?
¿Mi mente busca patrones, regularidad o secuencias lógicas en las cosas?
¿Me interesan los avances científicos?
¿Creo que casi todo tiene una explicación racional?
¿En ocasiones pienso en conceptos claros, abstractos, sin palabras ni imágenes?
¿Me gusta detectar defectos lógicos en las cosas que la gente dice y hace en casa y en el trabajo? ¿Me siento más
cómodo cuando las cosas están medidas, categorizadas, analizadas o cuantificadas de algún modo?
Inteligencia visual-espacial
¿Cuándo cierro los ojos percibo imágenes visuales claras?
175
¿Soy sensible al color?
¿Habitualmente utilizo una cámara de fotos o una videocámara para captar lo que veo a mi alrededor?
¿Me gustan los rompecabezas, los laberintos y demás juegos visuales?
¿Por la noche tengo sueños muy intensos?
¿En general, soy capaz de orientarme en un lugar desconocido?
¿Me gusta dibujar o garabatear?
¿En el colegio me costaba menos la geometría que el álgebra?
¿Puedo imaginar sin ningún esfuerzo el aspecto que tendrían las cosas vistas desde arriba?
¿Prefiero el material de lectura con muchas ilustraciones?
Inteligencia musical
¿Tengo una voz agradable?
¿Percibo cuándo una nota musical está desafinada?
¿Siempre estoy escuchando música: radio, discos, casetes o compactos?
¿Toco un instrumento musical?
¿Sin la música, mi vida sería más triste?
¿En ocasiones, cuando voy por la calle, me sorprendo cantando mentalmente la música de un anuncio de televisión
o alguna otra melodía?
¿Puedo seguir fácilmente el ritmo de un tema musical con un instrumento de percusión?
¿Conozco las melodías de numerosas canciones o piezas musicales?
¿Con sólo escuchar una selección musical una o dos veces, ya soy capaz de reproducirla con bastante acierto?
¿Acostumbro a producir sonidos rítmicos con golpecitos o a cantar melodías mientras estoy trabajando, estudiando
o aprendiendo algo nuevo?
Inteligencia intrapersonal
¿Habitualmente dedico tiempo a meditar, reflexionar o pensar en cuestiones importantes de la vida?
¿He asistido a sesiones de asesoramiento o a seminarios de crecimiento personal para aprender a conocerme más?
¿Soy capaz de afrontar los contratiempos con fuerza moral?
¿Tengo una afición especial o una actividad que guardo para mí?
¿Tengo algunos objetivos vitales importantes en los que pienso de forma habitual?
¿Mantengo una visión realista de mis puntos fuertes y débiles (confirmados mediante feedback de otras fuentes)?
¿Preferiría pasar un fin de semana solo en una cabaña, en el bosque, que en un lugar turístico de lujo lleno de gente?
¿Me considero una persona con mucha fuerza de voluntad o independiente?
¿Escribo un diario personal en el que recojo los pensamientos relacionados con mi vida interior? ¿Soy un trabajador
autónomo o he pensado muy seriamente en la posibilidad de poner en marcha mi propio negocio?
Inteligencia interpersonal
¿Soy del tipo de personas a las que los demás piden opinión y consejo en el trabajo o en el vecindario?
¿Prefiero los deportes de equipo, como el bádminton, el voleibol o el softball, a los deportes solitarios, como la
natación o el jogging?
¿Cuándo tengo un problema, tiendo a buscar la ayuda de otra persona en lugar de intentar resolverlo por mí mismo?
¿Tengo al menos tres amigos íntimos?
¿Me gustan más los juegos sociales, como el Monopoly o las cartas, que las actividades que se realizan en solitario,
como los videojuegos?
¿Disfruto con el reto que supone enseñar a otra persona, o grupos de personas, lo que sé hacer?
¿Me considero un líder (o los demás me dicen que lo soy)?
¿Me siento cómodo entre una multitud?
¿Me gusta participar en actividades sociales relacionadas con mi trabajo, con la parroquia o con la comunidad?
¿Prefiero pasar una tarde en una fiesta animada que solo en casa?
Inteligencia kinestésica
¿Practico al menos un deporte o algún tipo de actividad física de forma regular?
¿Me cuesta permanecer quieto durante mucho tiempo?
¿Me gusta trabajar con las manos en actividades concretas como coser, tejer, tallar, carpintería o construcción de
maquetas?
¿En general, las mejores ideas se me ocurren cuando estoy paseando o corriendo, o mientras realizo alguna actividad
física?
¿Me gusta pasar mi tiempo de ocio al aire libre?
¿Acostumbro a gesticular mucho o a utilizar otras formas de lenguaje corporal cuando hablo con alguien?
¿Necesito tocar las cosas para saber más sobre ellas?
¿Me gustan las atracciones fuertes y las experiencias físicas emocionantes?
176
¿Creo que soy una persona con una buena coordinación?
¿No me basta con leer información o ver un vídeo sobre una nueva actividad: necesito practicarla?
177
B-learning de Derechos Humanos
Dr. Nelson Javier Cetz Canche1
, Dra. Laura López Díaz2
, Dr. Jorge Alberto Ceballos García3
1,2,3
Universidad Juárez Autónoma de Tabasco-División Académica de Ciencias y Tecnologías de la
Información, Km. 1 carretera Cunduacán-Jalpa. C.P.86690. Cunduacán, Tabasco, México.
{nelson.cetz, laura.lopez, jorge.ceballos,}@ujat.mx
Resumen. Se considera, con toda razón, que no es posible diseñar un curso en línea con las mismas
estrategias utilizadas para desarrollar un curso presencial debido a las características de aislamiento en las
que se encuentran los alumnos a distancia. Sin embargo, las características esenciales de aislamiento y
separación entre el profesor y el alumno tienden a desaparecer cada vez más rápidamente con el uso de
las tecnologías de información y comunicación (TIC), que sirven de apoyo a la educación. Este trabajo
presenta una herramienta en línea desde una plataforma virtual de aprendizaje, para apoyar al proceso
formativo de los alumnos de la Licenciatura en Derecho, que cursan la asignatura de Derechos Humanos
. Para el diseño instruccional se adoptó el modelo sistémico Assure, y como medio gestor del conocimiento
la plataforma Moodle.
Palabras claves: Diseño Instruccional, B-learning,TIC.
Summary. It is considered, with good reason, that it is not possible to design an online course with the
same strategies used to develop a face-to-face course due to the isolation characteristics in which distance
students find themselves. However, the essential characteristics of isolation and separation between
teacher and student tend to disappear more and more rapidly with the use of information and
communication technologies (ICT), which support education. This work presents an online tool from a
virtual learning platform, to support the training process of the students of the Bachelor of Law, who take
the subject of Human Rights. For the instructional design, the Assure systemic model was adopted, and
the Moodle platform as a means of managing knowledge.
Keywords: Instructional design, B-learning,TIC.
1 Introducción
Actualmente la mayoría de estudiantes universitarios tiene algún dispositivo móvil con conexión a
Internet, estas herramientas se están convirtiendo en la primera alternativa para localizar cualquier
contenido en la Red, incluyendo a los educativos. El aprendizaje móvil irrumpe con fuerza en los
contextos de la educación, en donde se descubren nuevas vías de apoyo al estudio. Por un lado, se
presenta como una herramienta que hace posible el aprendizaje permanente y, por otro, como
un entorno virtual personalizado y cotidiano en el que la comunidad educativa se abastece de
contenidos de aprendizaje.
La utilización de estos dispositivos en el entorno educativo consigue que el proceso de enseñanza-
aprendizaje se modifique para adaptarse a los escenarios que proporciona este entorno virtual. En
consecuencia se convierten en espacios de comunicación que permiten el intercambio de
información y que harían posible, según su utilización, la creación de un contexto de enseñanza
y aprendizaje en el que se facilitara la cooperación de profesores y estudiantes, en un marco
de interacción dinámica, a través de unos contenidos culturalmente seleccionados y
materializados mediante la representación, y los diversos lenguajes que el medio tecnológico es
capaz de soportar [1].
Por ello esta investigación se orientó a la asignatura: Derechos Humanos perteneciente a la
Licenciatura en Derecho, y cuyo objetivo es que el estudiante conozca los derechos humanos como
un marco conceptual necesario dentro de la formación social de su profesión, se identificaron algunos
eventos que demandan una herramienta que apoye el proceso de aprendizaje de los alumnos, estos
178
son:
 Bajo rendimiento académico.
 Deficientes hábitos de estudio.
 Insuficiente bibliografía en bibliotecas.
 Motivación insuficiente por parte del profesor.
 Tiempo insuficiente dedicado a la asignatura.
 Deficiente manejo de estrategias de aprendizaje.
 Comunicación en un solo sentido.
 Grupos numerosos.
 Dimensión afectivo-motivacional.
Aunado a ello, la asignatura en sí presenta un contenido temático amplio. Sin embargo se ha
observado que la gran mayoría de los estudiantes hacen uso de la tecnología, en particular de
dispositivos móviles por lo que aprovechando esa destreza se propone incursionar en el desarrollo de
una herramienta que permita el acceso a los contenidos en formatos de ergonomía computacional, lo
que deriva en una participación más activa en los procesos de enseñanza-aprendizaje, y a su vez
incorporadas por el docente en su quehacer, ya que éste, está llamado a realizar una función
importante en el proceso enseñanza-aprendizaje.
2 Estado del arte
2.1 B-learning
Es una modalidad de enseñanza en la cual el docente combina el rol tradicional de la modalidad
presencial con el rol de mediador en la modalidad a distancia con uso intensivo de tecnología. Esta
reversibilidad de roles le permite una mayor plasticidad estratégica y desarrollo de las habilidades y
competencias docentes, ya que pone en juego, transferencias pedagógicas de una modalidad a otra.
Utiliza herramientas de internet, de multimedia para las sesiones on-line e interacciones didácticas
cara a cara para las de presencialidad [2].
De acuerdo con [3] los entornos virtuales, diseñados para el b-learning ofrecen las siguientes
ventajas:
1. La Información en la red es variada y siempre está disponible.
2. Se usan recursos de la Web, tales como foros, chats, videoconferencias, entre otros.
3. Los contenidos que se suben a la plataforma virtual, pueden estar en diferentes
formatos.
4. Fomenta el aprendizaje crítico, activo, dinámico, colaborativo, interactivo, donde
participan todos los estudiantes, esto es algo que muchas veces en la modalidad
presencial, no ocurre con frecuencia.
5. Cada estudiante organiza su tiempo y también da flexibilidad para
conectarse a la plataforma seleccionada, en este punto hay que resaltar que el
aprendizaje b-learning vence todas las limitaciones de tiempo, espacio y de otros
elementos limitantes que puedan tener los estudiantes.
6. Promueve los procesos de autoevaluación y coevaluación en el estudiante.
7. El profesor siempre está dando apoyo a los estudiantes, a través de
las tutorías tanto presencial como on-line.
179
2.2 El aprendizaje en la educación en línea
En la educación en línea se centra el interés directamente sobre el estudiante y crea un currículo
basado en el principio de considerar al alumno como un sujeto capaz de decidir su propio desarrollo
formativo. El proceso educacional se convierte en un proceso que puede extraer y desarrollar las
capacidades innatas del educando facilitando su crecimiento natural. Asimismo, es resultado de la
interacción entre el sujeto cognoscente y su ambiente de aprendizaje construido bajo los cuatro pilares
básicos sugeridos por la UNESCO: aprender a ser, aprender a conocer, aprender a hacer, y
finalmente, aprender a vivir en armonía con los demás [4].
De acuerdo con el Diccionario de las ciencias de la educación “aprendizaje” es el proceso
mediante el cual un sujeto adquiere destrezas o habilidades practicas, incorpora contenidos
informativos o adopta nuevas estrategias de conocimiento y/o acción.
2.3 Nuevas tecnologías y aprendizaje colaborativo
El desarrollo de las nuevas tecnologías y su utilización en el proceso educativo requiere del soporte
que proporciona el aprendizaje colaborativo, para optimizar su intervención y generar verdaderos
ambientes de aprendizaje que promuevan el desarrollo integral de los aprendices y sus múltiples
capacidades; en este orden de ideas señalan que la instrucción basada en Web, promueve la
transmisión de información y tiende a propiciar al docente como facilitador [5].
Cabe destacar que para promover el verdadero logro de experiencias de aprendizaje colaborativo, se
debe partir por la constitución de pequeños grupos, entre dos y cuatro integrantes; por otra parte el
lapso durante el cual se dará el trabajo conjunto, también interviene en el logro, pues aquellos que
prolongan la duración de las sesiones de trabajo, tendrán oportunidad de conocerse mejor e integrarse
efectivamente para generar aprendizaje, así como el desarrollo de las habilidades sociales para su
exitosa inserción en el grupo.
Desde el punto de vista pedagógico, las Tecnologías de Información y Comunicación representan
ventajas para el proceso de aprendizaje colaborativo, en cuanto a:
Estimular la comunicación interpersonal, que es uno de los pilares fundamentales dentro de
los entornos de aprendizaje virtual.
 Las nuevas tecnologías facilitan el trabajo colaborativo, al permitir que los aprendices
compartan información.
 Seguimiento del progreso del grupo, a nivel individual y colectivo.
 Acceso a información y contenidos de aprendizaje.
 Gestión y administración de los alumnos.
 Creación de ejercicios de evaluación y autoevaluación.
3 Metodología usada
Los modelos instruccionales son guías o estrategias que utilizan los instructores en el proceso de la
enseñanza. Constituyen el armazón procesal sobre el cual se produce la instrucción de forma
sistémica, y fundamentada en teorías del aprendizaje [6].
Para la construcción de la aplicación se adoptó el modelo sistémico ASSURE (el cual integra seis
pasos que consisten en: analizar las características del estudiante; establecer estándares y objetivos
180
de aprendizaje; la selección de medios y materiales; utilización de los medios y materiales; la
participación de los estudiantes y evaluación; revisión de la implementación y resultados del
aprendizaje), en donde los alumnos visualicen los materiales en sus dispositivos móviles, facilitando
el proceso de aprendizaje sin importar dónde se encuentren. Este proceso puede resumirse en seis
fases generales, tal como se muestra en la Figura. 3.1
Fig. 3.1 Fases generales del Modelo ASSURE
4 Resultados experimentales
Para conocer el contexto del grupo objeto y sus necesidades, se procedió a la aplicación del
instrumento de cuestionario el cual nos permitió conocer su contexto y sus necesidades. De la
población de estudio que lo conforman 45 alumnos, se analizaron 4 aspectos principales que son:
 El tiempo extra-clase que tienen disponible para la asignatura y los tipos de
contenidos más usuales en la asignatura de Derechos Humanos.
 Los medios por los que se comunican para realizar actividades extra-clase, con el fin de
determinar su inclinación hacia el uso de las tecnologías de información y comunicación
como medio para compartir sus experiencias en diferentes contextos, y sus habilidades de
operación de ellas.
 Su disponibilidad de acceso a tecnologías de información, conectividad y las
características de los equipos celulares a los tienen acceso.
 Sus preferencias de aprendizaje, con el fin de determinar si se inclinan hacia el uso
de las tecnologías.
El 100% de total de la población tiene acceso a un dispositivo móvil, de los cuales 100% cuenta con
servicio de internet, a su vez el 56% navega frecuentemente más de tres horas en internet al día, el
30% navega diariamente de 2 a 3 horas y el 14% navega de 1 a 2 horas al día. Así mismo, los
resultados manifiestan que el 100% estiman que las herramientas móviles asociadas con la lección y
práctica, impartidas por el profesor al frente es una opción para reforzar su proceso de aprendizaje;
y además el 97 % están dispuestos a probar otra forma de tomar las clases de una manera más
dinámica que la actual. El sistema operativo que más posee el alumnado encuestado es el Android,
181
correspondiente al 94%, seguido por el "Ios" con 6%.
La selección de un LMS (Learning Management System) no es una decisión sencilla. Y aunque los
LMS comparten un gran número de funcionalidades su filosofía de uso y posibilidades de integración
son muy variadas. En esta etapa es donde se lleva a cabo la implementación de los recursos del curso,
tales como los contenidos, los foros, las autoevaluaciones, las descargas de materiales, los recursos
multimedia, etc. En esta fase se pueden apreciar los alcances que darán sentido a la elaboración del
curso, es importante señalar la realización de las pruebas del curso antes de ponerlo en marcha ya
que ellas nos permitirán corregir errores, fallas, y las carencias de las fases de análisis, diseño y
desarrollo. Para la implementación de este curso se hicieron unas pruebas piloto usando una muestra
pequeña de la población objetivo, [7] recomienda que la prueba se lleve a cabo con personas ajenas
a la producción del desarrollo con el fin de observar la claridad en el manejo del curso, las
instrucciones, estilos de presentación, etc. Así mismo a los participantes se les alentará a considerar
los materiales como preliminares y a sentirse dispuestos a hacer sugerencias para su mejoramiento.
El programa seleccionado para la implementación de este curso es la plataforma Moodle V 1.19.1,
este es un sistema versátil, confiable, robusto y gratuito.
En la Figura 4.1 se muestra una interfaz de la aplicación, con la cual el usuario puede interactuar de
manera amigable y de rápido acceso a la información.
Fig. 4.1 Pantalla de presentación al curso.
5 Conclusiones y trabajos futuros de investigación
Se puede concluir que el modelo ASSURE aplicado en este trabajo fue sin duda una excelente
herramienta para llevar a cabo la implementación del curso de derechos humanos, sin embargo cabe
señalar que para el diseño de un curso en línea se requiere de la participación de un equipo
multidisciplinario que permita obtener el máximo rendimiento de los recursos utilizados, así mismo
se requiere especialistas en la asignatura del curso, diseñadores instruccionales y especialistas
informáticos, que en conjunto diseñen, desarrollen y distribuyan los cursos.
Es muy importante llevar a cabo un manejo cuidadoso del análisis y diseño. Cuanto mayor esfuerzo
y tiempo se invierten en estas fases, el tiempo de desarrollo se disminuye y los errores también,
reduciendo el tiempo de depuración, asegurando así un producto óptimo. Debe asegurarse que el
curso que se lleve a cabo cuente con una metodología adecuada con actividades y recursos suficientes
182
para apoyarlo.
La interfaz es fundamental en un sistema de aprendizaje en línea, si los usuarios no se sienten a gusto
con su ambiente, su actitud será negativa y de poca cooperación, convirtiéndose la experiencia en
una situación frustrante donde eventualmente dejarían de participar.
Durante el análisis del contexto de la audiencia los alumnos demostraron tener poco o ningún
conocimiento sobre las plataformas para la administración del conocimiento, por lo que se
recomienda impartir un curso de inducción sobre estas plataformas, esto es con el fin de facilitar su
uso y culturizar al alumno con estas nuevas tecnologías de información.
Referencias
[1] Fernández, A. Sistemas de mobile learning para alumnado con necesidades especiales. Granada: Universidad de
Granada, recuperado el día 18 de julio de 2018 en http://hdl.handle.net/10481/30830.
[2] Santiváñez, R. El Modelo de Gestión de Blended – Learning en la Universidad Los Ángeles de Chimbote de Perú.
Recuperado en mayo de 2015 en : http://hdl.handle.net/123456789/1097.
[3] Romero, T. Unimos Mentes, Creamos Conocimiento Libre. Ponencia presentada al VI Congreso Internacional Virtual
de Educación CIVE. La Palma 2006.
[3] Unesco. Hacia las Sociedades del Conocimiento. Ediciones de la UNESCO. Francia. 2017.
[4] Delors, Jacques. La educación encierra un tesoro. Informe a la UNESCO de la Comisión Internacional sobre la
Educación para el siglo XXI. México: Correo de la UNESCO. 2017.
[5] Aprendizaje colaborativo en las redes de aprendizaje.(s.f.). Recuperado el 28 de Septiembre de 2015 en
http://redescolar.ilce.edu.mx/redescolar/biblioteca/articulos/pdf/aprendizaje.pdf.
[6] Cookson, Pedro S. Elementos de diseño instruccional para el aprendizaje significativo en la educación a Distancia.
Hermosillo, México: Universidad para la paz. Recuperado el 26 de Noviembre de 2015 en
http://www.educadis.uson.mx/ftp/elementos%20de%20diseno-230403.doc
[7] Dick, W., Carey, L. The Systematic Design of Instruction. (3a ed.).Estados Unidos: Harper Collins Publisher. 1990.
[8] Gate. Manual de Moodle. Recuperado el 25 de julio de 2018 en http://moodle.org/course/view.php?id=11.
.
183
VIII. Ingeniería de
Software
184
Generador de un modelo 3D a partir de fotografías utilizando como caso
de prueba una tienda virtual
Victor Daniel Bohórquez Toribio 1
and Nancy Ocotitla Rojas 1
1
Escuela Superior de Cómputo-IPN, Av. Juan de Dios Bátiz, esquina con Miguel Othón de Mendizabal,
México, D.F., 07738. México
vicbohoto@gmail.com, nanwen1@gmail.com
Resumen. En el presente trabajo se expone el desarrollo de un sistema software que obtiene las medidas
corporales del usuario utilizando dos fotografías de su cuerpo en dos perspectivas: frontal y lateral, para
así crear un modelo 3D de una persona, este modelo puede ser empleado para una tienda virtual y así a
ayudar al usuario a elegir y comprar las prendas adecuadas. Para el proceso de desarrollo se empleó el
modelo de proceso en espiral, permitiendo organizar las actividades en un bucle, donde cada iteración
representa un conjunto de actividades para alcanzar una meta [1]. Y se emplearon algoritmos que
permitieron obtener medidas muy cercanas a las reales, con un posible error por debajo del 3.0%, por lo
que el modelo 3D es una representación virtual confiable.
Abstract. The following paper presents the development of a software that obtains body measurements
from the user using two photographs of his whole body in two perspectives: frontal and lateral, to create
a 3D model of a person, this model is used in a virtual store, so it can help the user choosing and buying
the right clothes. For the development we used the spiral model, which organizes the activities in a loop,
where each iteration represents a set of activities to reach a goal [1]. The implemented algorithms let us
obtain very close measurements to the real ones, with a possible error below 3.0%, due to that fact, this
3D model is a trustworthy virtual representation.
Palabras clave: Análisis de imágenes, Modelo 3D, Ingeniería de software.
1 Introducción
En la actualidad, las empresas se ven en la necesidad de emprender en el mundo de las ventas por Internet,
pues estas son una de las formas de comercio más utilizadas hoy en día [2], ya sea por comodidad, seguridad,
variedad, precio o necesidad; sin embargo, en este tipo de ventas se pueden presentar ciertos problemas cuando
de prendas de vestir se trata, tales como: variantes inesperadas en el producto de acuerdo a la talla, diferencias
en la percepción del artículo en la tienda en línea y la vida real, entre otros; es por ello, que se necesita una
manera de solventar tales problemas, debido a que muchos usuarios no son conscientes de su talla o de sus
medidas corporales, siendo este uno de los principales motivos por los que las personas no adquieren prendas
de vestir a través de las tiendas en línea [7].
Por esta razón, se desarrolló un sistema software que le permite al usuario obtener algunas de sus
medidas corporales, tales como: altura, ancho de los hombros, ancho de la cadera, y con ello generar
un modelo digital de su cuerpo. De esta manera se pretende que el usuario pueda elegir de mejor
manera sus prendas, el sistema le proporcionará su talla estimada y la posibilidad de modelar prendas
utilizando su modelo digital y así tener una idea más certera de cómo se ve con dicha prenda, aunado
que por la situación actual a nivel mundial (pandemia), este sistema podría ser de gran ayuda para
solventar las necesidades de los usuarios al comprar prendas de vestir a un determinado comercio
que se oferte mediante una tienda virtual o en línea, como: la elección de la talla correcta de acuerdo
a sus medidas, medirse la prenda de manera virtual para tener una idea de cómo se ve con dicha
prenda.
2 Estado del Arte
Se analizaron los siguientes sistemas que tienen características similares con el presente proyecto
185
obteniendo los siguientes resultados.
1. MySizeID. Es una aplicación móvil para sistemas operativos Android y Windows, que está
orientado a la obtención de medidas corporales del usuario, las cuales se obtienen mediante un
escaneo de la parte corporal a medir, esta técnica requiere del uso de la cámara del teléfono móvil
y algunos sensores del mismo, tales como giroscopio, acelerómetro, sensor de proximidad y
espectro de color; por esta razón, está sujeto a que el dispositivo móvil cuente con los sensores
necesarios [3].
2. Foleys. Es una aplicación web que a través de una interfaz gráfica el usuario puede ingresar los
datos, como la altura, el peso y la edad; posteriormente se realiza un cálculo genérico sobre la
talla correspondiente a las medidas ingresadas [4]. Los resultados son basados en una tabla de
medidas y pesos, sin embargo, no se considera la estructura corporal, ni las medidas de anchura
del cuerpo humano; por tanto, el resultado obtenido puede ser erróneo para algunos usuarios o
puede no coincidir con las medidas de cierta marca, o bien en ciertos cortes de prendas de vestir.
Los sistemas no contemplan las características de: medidas corporales, talla de ropa, modelo 3D del
usuario y el modelado de prendas de vestir en el modelo 3D, sino solo algunas de estas. Debido a
esto, se desarrolló un sistema software que a partir de un conjunto de fotografías de cuerpo completo
de una persona se puedan adquirir las variables de altura y anchura, cuya finalidad permita crear un
modelo digital del cuerpo humano en tres dimensiones y así poder utilizarlo en una tienda de ropa en
línea.
3 Metodología utilizada
El sistema generador de un modelo 3D a partir de fotografías utilizando como caso de prueba una tienda de
virtual, emplea una arquitectura cliente-servidor y se basa en un modelo de dos capas, las cuales son: 1. Capa
de presentación y 2. Capa lógica de negocio y de datos. Observe figura 1.
Figura 1. Arquitectura cliente-servidor
3. 1 Arquitectura
En la figura 2 se muestra la arquitectura que se empleó para el desarrollo del presente trabajo, la cual esta
formada por los elementos:
1. Servidor (Back End). Se encuentra en una plataforma de servicio y funciona como una API (Interfaz de
Programación de Aplicaciones) de tipo REST (Transferencia de Estado Representacional) con el objetivo
de poder ser utilizado como un servicio y que este pueda complementar otros sistemas software; se encarga
de responder las peticiones y los procesos requeridos por el cliente, así como de la autenticación del
usuario. El servidor cuenta con un conjunto de clases para procesar las fotografías del usuario y generar
las medidas del mismo. También incluye un conector a base de datos y la base de datos que se emplea para
administrar los usuarios, los modelos de usuarios y las prendas del sistema.
2. Cliente (Front End). Está compuesto por un navegador web y una serie de interfaces que permiten al
usuario interactuar con el sistema y el servidor, dentro de las interfaces, la interfaz de modelado 3D utiliza
la librería ThreeJS para renderizar la escena y los modelos 3D solicitados.
186
Figura 2. Arquitectura del sistema.
3.2 Back end
El servidor cuenta con las funciones básicas de CRUD (Create, Read, Update, Delete) y con varias rutas de
acceso, las cuales son:
 Autenticación del usuario.
Permite identificar al usuario, para ello se utilizó JSON Web Tokens que permite validar cuentas o registros
por una cantidad de tiempo determinada, además restringe el acceso a las rutas por usuarios no identificados.
 Analizador de fotografías.
Extrae las medidas del usuario, para ello recibe las fotografías frontal y lateral de la persona de la que se quiere
obtener las medidas, posteriormente se aplica el algoritmo de obtención de medidas, que se puede observar en
el diagrama de proceso en la figura 3.
Figura 3. Diagrama de proceso para la obtención de medidas.
Algoritmo: Obtención de medidas.
1. Revisar que las fotografías tengan una buena iluminación y sin sombras.
2. Convertir las fotografías a escala de grises, la binarización se beneficia en esta escala.
3. Aplicar el filtro mediana, el cual visita cada píxel de la imagen y lo reemplaza por la mediana de
los píxeles vecinos, esto permite eliminar el ruido “sal y pimienta” de una imagen. De esta
manera en el escenario, se tiene una imagen bien definida y sin ruido.
4. Extraer la silueta, consiste en obtener el objeto contrastado del fondo. Para ello:
4.1. Aplicar el método de Otsu, es un método de umbralización que sirve para distinguir y separar
objetos dentro de una imagen, marcando el objeto en color negro o un valor 0 hablando del valor
de los pixeles del objeto.
4.2. Aplicar la inversión de la imagen, cambiar el valor 0 de los pixeles a 255 y viceversa, esto
para obtener un objeto blanco en un fondo negro.
4.3. Generar el borde de la silueta o contorno del usuario utilizando el método de erosión binaria,
que permite erosionar un objeto y así obtener un subconjunto de pixeles del mismo.
4.4. Finalmente, se resta el objeto original y su erosión (relleno).
5. Obtener las medidas, de la siguiente manera:
187
2 2
5.1.Marcar los puntos a medir. Se toma como base las proporciones establecidas en el hombre
de Vitruvio que establece “la proporción de que el cuerpo humano es 8 veces la cabeza” [5], y
si se divide en 16 partes se podrá separar partes del cuerpo de manera exacta respetando la
proporción antes establecida. Es decir, siendo la sección de los pies, la primera sección y la parte
alta de la cabeza la última sección; las últimas filas de las secciones 9 y 14 corresponderán a la
cadera y los hombros respectivamente, tal como se muestra en la figura 4. Teniendo esas líneas
se puede medir el tamaño en pixeles tanto de manera frontal como lateral. La altura se calcula
tomando la distancia en pixeles del inicio al fin de las secciones de la fotografía lateral.
5.2. Convertir pixeles a pulgadas. De acuerdo al artículo Body feateures extraction and personal
size measurments [6] se utilizó para inferir las siguientes fórmulas:
Para convertir el valor de los pixeles en pulgadas de manera horizontal, se utilizó la ecuación 1:
𝐻𝑜𝑟𝑖𝑧𝑜𝑛𝑡𝑎𝑙 = 𝐷𝑖𝑠𝑡𝑎𝑛𝑐𝑖𝑎 (𝑖𝑛)∗𝐴𝑛𝑐ℎ𝑜 𝑆𝑒𝑛𝑠𝑜𝑟 (𝑚𝑚)
… ecuación (1)
𝐿𝑜𝑔𝑖𝑡𝑢𝑑 𝑓𝑜𝑐𝑎𝑙(𝑚𝑚)∗𝐴𝑛𝑐ℎ𝑜 𝑑𝑒 𝑖𝑚𝑎𝑔𝑒𝑛
Para convertir el valor de los pixeles en pulgadas de manera vertical, se utilizó la ecuación 2:
𝑉𝑒𝑟𝑡𝑖𝑐𝑎𝑙 = 𝐷𝑖𝑠𝑡𝑎𝑛𝑐𝑖𝑎 (𝑖𝑛)∗𝐴𝑙𝑡𝑢𝑟𝑎 𝑆𝑒𝑛𝑠𝑜𝑟 (𝑚𝑚)
𝐿𝑜𝑔𝑖𝑡𝑢𝑑 𝑓𝑜𝑐𝑎𝑙(𝑚𝑚)∗𝐴𝑙𝑡𝑢𝑟𝑎 𝑑𝑒 𝑖𝑚𝑎𝑔𝑒𝑛
… ecuación (2)
5.3. Una vez teniendo las medidas reales, se debe calcular la circunferencia de la cintura y de los
hombros, para ello se utilizó las formula del perímetro de una elipse, marcada en la ecuación 3,
donde C, simboliza la circunferencia:
(𝐴−𝐵)2
3 2
𝐶 = (𝐴 + 𝐵) ∗ {1 + (𝐴+𝐵) } … ecuación (3)
(10+√4−3(𝐴−𝐵) /(𝐴+𝐵)
5.4. Convertir pulgadas a centímetros. Se multiplica las pulgadas medidas por 2.54 para obtener
las mediciones en centímetros.
 Generador del modelo. Es responsable de enviar los resultados al cliente en un paquete de tipo
JSON.
 Imagen. Esta clase guarda todas las características y los metadatos de las imágenes que son
subidas al servidor.
Figura 4. Proporciones en el cuerpo humano.
3.3 Front End
Para el servidor del cliente se utilizaron las librerías: React, para desarrollar componentes que permiten
realizar todas las interfaces gráficas así como su lógica y Three JS, permite renderizar los modelos en el módulo
modelado 3D, además los cargadores de archivos OBJ y COLLADA para generar la escena y añadir las prendas
de vestir en el componente escena del mismo módulo.
Dando origen a los módulos:
 Contexto de React. Permite generar estados a los cuales se puede acceder desde cualquier componente que
se desee. Para este sistema se declaró un contexto para manejar los estados del sistema y el token de
autorización del usuario, además de realizar las peticiones a la API, todo esto se maneja mediante el módulo
de estados, en el cual el componente Reducer realiza la actualización de los estados del sistema de acuerdo a
las acciones que se generen al interactuar con las interfaces.
 Control de estados. El sistema interactúa con el cliente mediante los estados, ya que cuando un estado
cambia o se actualiza el sistema, interpreta esto como una interacción del usuario. Por eso, este módulo utiliza
188
el componente Reducer en el contexto, el cual realiza la actualización de los estados del sistema, de acuerdo a
las acciones que se generen al interactuar con las interfaces. Además, se encarga de ejecutar las peticiones al
servidor y lanzar las actualizaciones de estado mediante el componente Reducer. Y establece el estado inicial
del sistema, es decir, se regresa al sistema a un estado inicial.
Para generar el modelo, se requiere utilizar el módulo de estados y la interfaz de carga de fotografías, que se
encargan de enviar mediante una petición POST al servidor las fotografías proporcionadas por el usuario, lanzar
una alerta de la creación del modelo y ejecutar una actualización de estado del contexto.
 Modelado 3D. Utiliza dos componentes principales, un componente de modelado de prendas y el
componente de modelado humano, además, utiliza un estado local llamado Prendas, el cual es
enviado a los dos componentes antes mencionados, ya que contiene todas las prendas que se están
utilizando en la escena.
 Componente de modelado de prendas utiliza el contexto para obtener las prendas disponibles para
el usuario y crea un componente que se encarga de cargar todas las prendas de una parte del cuerpo
y al hacer clic en la prenda, la añade al estado de prendas. Una vez que se han subido las fotografías
al sistema, este responde al cliente con las medidas obtenidas en un paquete JSON, el cliente lo
recibe y a partir de estas medidas genera el modelo 3D.
 Componente modelado humano. Para generar el modelo 3D del usuario, se utilizan modelos
genéricos, dependiendo del género del mismo, utilizando el componente modelado humano, se
modifica la estructura ósea cargada en el modelo para adaptar las medidas de manera específica y
adaptarse a la estructura corporal del usuario. El modelo cuenta con adaptación automática, es decir,
las medidas que no se obtienen mediante el servidor API se ajustan de acuerdo a las medidas que sí
se obtienen, con el fin de conseguir un modelo simétrico y anatómicamente correcto.
 Creación de la escena. El módulo de modelado 3D utiliza el componente de modelado de escena,
que carga los modelos de las prendas y el usuario. De esta manera utiliza un estado local para regular
la cantidad de prendas dentro de la escena y renderizar el modelo del usuario y las prendas utilizadas.
 Escala de prendas. Se encarga de adaptar las tallas de las prendas. El sistema calcula la talla
estimada del usuario utilizando las medidas de cintura y hombros obtenidas mediante el servidor y
las ingresa a una tabla de medidas establecida por la tienda o medidas genéricas propuestas por el
sistema, entonces se calcula de manera independiente y específica las tallas del tronco superior e
inferior, obteniendo una mejor aproximación de las tallas utilizadas por el usuario.
4 Resultados
Dados las mediciones obtenidas por el sistema, se pudo realizar una comparación directa con las
medidas reales de los usuarios de prueba y obtener el procentaje de error medido en las pruebas,
como se puede observar en las tablas 1 y 2.
Tabla 2. Porcentajes de error para 10 usuarios masculinos
Error de medición en usuarios masculinos
Medidas Porcentaje de error
Hombros 1.690 %
Cintura 1.495 %
Altura 0.420 %
Error Total 1.201 %
Tabla 3. Porcentajes de error para 5 usuarios femeninos
Error de medición en usuarios femeninos
Medidas Porcentaje de error
Hombros 2.850%
Cintura 1.920 %
Altura 1.170 %
189
Error Total 1.980 %
Al observar los resultados mostrados en las tablas 2 y 3, se concluye que los resultados de las
mediciones obtenidos por el sistema son lo suficientemente precisos para representar de manera
virtual a una persona. Las mediciones calculadas son lo bastante precisas como para estimar una talla
de una prenda de vestir, debido a que el error es muy bajo, no superando el 3.0% y las tallas de vestir
se componen de medidas con rangos amplios para encajar en múltiples usuarios.
La precisión obtenida por el sistema depende significativamente de la calidad de la imagen, así como
de la correcta posición (aproximadamente 90 grados) y distancia (4 metros) de la cámara al objetivo.
El sistema logra detectar de manera eficiente la silueta del usuario y las fórmulas utilizadas con los
factores de ajuste utilizados logran dar aproximaciones óptimas de las medidas reales del usuario en
cuestión.
5 Conclusiones y trabajo a futuro
Con la culminación del presente trabajo se llegó a la conclusión de que los algoritmos utilizados
para obtener las mediciones fueron los adecuados, debido a que filtran, procesan y obtienen las
mediciones de cada una de las variables de manera eficaz, sin embargo implica un mayor consumo
de recursos para cumplir con su propósito, aunado a que el mayor porcentaje de error obtenido en
las pruebas fue de 3.0%, lo que no genera una distorsión significativa entre las medidas reales y
virtuales en la talla estimada del usuario. El método de modelado resultó ser de utilidad y una
confiable representación del usuario en un ambiente virtual, debido a que los modelos de prendas
de vestir se ajustaron de una manera similar a la talla real.
Debido a la situación actual de confinamiento, el riesgo de contagio en lugares públicos, las
medidas de precaución sanitarias y las limitantes de personas reunidas en un mismo lugar, este
sistema podría tener un gran impacto en el ambiente comercial, siendo de gran utilidad para
realizar compras de manera virtual de prendas de vestir, ya que presenta grandes ventajas tanto
para las comercializadoras de este tipo de insumos, como para los usuarios en general, ya que no
se requiere asistir físicamente a un establecimiento a medir y probar la ropa, brindando un entorno
confiable de mediciones y una representación óptima del entalle de las prendas en un modelo
virtual con medidas reales a escalas reales, evitando exponer al usuario a riesgos contra su salud,
ahorrando tiempo de transporte y reduciendo los costos de operación y venta de la tienda.
Este método de modelado puede ser utilizado en múltiples aplicaciones, de simulaciones de
entornos virtuales donde se requiera incluir una persona en tamaño real, los entornos de prueba
son tan grandes como las aplicaciones lo requieran, por ejemplo, sistemas de virtualización,
sistemas de reconocimiento corporal, aplicaciones de seguridad, entre otros.
El sistema tiene la posibilidad de ser integrado a otros, gracias a que utiliza tecnologías
conciliables con la gran mayoría de tecnologías actuales, incluso el sistema podría ser utilizado
como servicio.
190
Referencias
[1] Sommerville, I. (2005). Ingeniería del software (7.a ed., Vol. 4). Pearson.
[2] Forbes. (2020, 20 febrero). Siguen en aumento las ventas por internet en México. Forbes México. [Online]. Disponible
en: https://www.forbes.com.mx/siguen-en-aumento-las-ventas-por-internet-en-mexico/
[3] MySize. (2020, 17 diciembre). MySize. [Online]. Disponible en: https://mysizeid.com/mysizeid-app/
[4]Foleys. (s. f.). Calculadora de tallas. Foleys. [Online]. Disponible en: https://www.foleys.com.mx/calculadora-de-tallas
[5] Canson, L. (s. f.). Las proporciones humanas. L’atelier Canson. [Online]. Disponible en:
https://www.lateliercanson.es/dibujo-las-proporciones-humanas
[6] Xiaohui, T., Peng, X., Liu, L., & Xia, Q. (2018). Automatic human body feature extraction and personal size
measurement. Journal of Visual Languages and Computing, 47, 1–10.
[7] Statista Research Department, (2021, 16 julio ). Razones principales para no comprar en línea en México en 2021.
[Online]. Disponible en: https://es.statista.com/estadisticas/1115431/mexico-razones-para-no-comprar-en-linea/
191
Tarjetas de Presentación Digitales a través de Herramientas de
Desarrollo Multiplataforma
M.T.C. Reyna García Belmont 1
M. en A. Ma. del Consuelo Puente Pérez 2
Ing. Luis Cabrera Hernández 3
M. A. N. Adriana Puente Pérez 4
y
Ing. Luis Emilio García García 5
1 2 3 4 5
Tecnológico Nacional de México/Instituto Tecnológico de Tlalnepantla, Av. Instituto Tecnológico S/N
Col. La Comunidad, Tlalnepantla de Baz, Edo. de México, 54070. México
reyna.gb@tlalnepantla.tecnm.mx, maria.pp@tlalnepantla.tecnm.mx, luis.ch@ tlalnepantla.tecnm.mx,
adriana.pp@tlalnepantla.tecnm.mx, L15251878@tlalnepantla.tecnm.mx
Resumen. La automatización inteligente para transformar un negocio crea una ventaja competitiva y sobre
todo la capacidad de adaptarse rápidamente a los cambios del entorno actual para sobrevivir y prosperar.
La pandemia COVID-19, ha dejado duras lecciones sobre adaptabilidad y productividad, que obliga una
transformación digital que se ajuste a los objetivos del negocio con el enfoque y la visión correctos que
ayuden a ser digitalmente diferente con las herramientas adecuadas, considerando con ello un cambio
cultural. El presente trabajo muestra el desarrollo de una aplicación con el uso de una plataforma de
servicios de contenido de código bajo como alternativa para realizar una transformación digital,
minimizando con ello los costos de una codificación personalizada, pero sobre todo los largos ciclos de
implementación, permitiendo incluso a los no desarrolladores manejar mejoras de procesos de baja a
media complejidad haciendo que una organización dependa más de una fuerza laboral flexible y equipada.
Palabras Clave: Desarrollo Multiplataforma, Framework, Tarjeta Digital, RAD
1 Introducción
El problema del consumidor que enfrentan los profesionales de marketing hoy en día es cómo
consumir la atención de sus destinatarios, de acuerdo con la teoría de la Economía de la Atención
[1], la cual es universalmente aceptada, donde la información de ese tiempo no se compara con el
flujo interminable de información que ahora fluye a través del teléfono, la computadora y las pantallas
del reloj pulsera de un consumidor todos los días. Actualmente existe una Economía de Atención en
la que un usuario móvil de Facebook suele dedicar 1,7 segundos a una pieza de contenido, el desafío
es comprender profundamente a los consumidores y captar su atención entregando el mensaje
correcto, en el canal adecuado y en el momento correcto [2]. Internet ha hecho posible que cualquier
persona con un dispositivo informático y una conexión a internet publique contenido, como resultado
de esto, las organizaciones en los sectores minorista de diversa índole están compitiendo por la
atención de los consumidores, no solo entre sí, sino también contra todos los que tienen un
smartphone y una propensión a compartir, derivando con esto la importancia de llamar la atención
de los consumidores ya que de acuerdo a la estadística “What Happens in an Internet Minute in 2019?
” [3], las actividades que se realizaron en línea durante un solo minuto se muestran en la tabla 1.
Medio Actividad
Correo
electrónico
Se envían 188 millones de correos electrónicos
Mensajes de
texto
Se envían 18,1millones de mensajes de texto
Facebook y
WhatsApp
Se envían 41,6 millones de mensajes
Twitter
Se publican 456,000 tweets (mensaje publicado en Twitter
que puede contener texto, fotos, GIF o video.)
YouTube Se ven 4,5 millones de vídeos
Snapchat Se crean 2,1 millones de Snaps
192
Tinder Se deslizan 1,4 millones de perfiles
Tabla 3. Lo que sucede en un minuto de Internet en 2019 [3].
Como se puede observar, ante esta era digital los consumidores están cada vez más dispuestos a
cambiar la forma en que compran, viajan, eligen a un empleador e incluso dónde realizan inversiones
personales. El presente proyecto está referido al e-commerce y marketing digital a través del diseño
de tarjetas de presentación digitales, así como la oferta de productos por medio de una aplicación
multiplataforma, basado en el comportamiento del intercambio de bienes por internet y las nuevas
formas en que los usuarios utilizan los medios de comunicación para adquirir un bien, servicio o
producto.
La atención al cliente juega un papel importante sobre cómo un cliente se siente atendido en este
contexto una buena tarjeta de presentación puede lograr el éxito si se adapta a la forma de interactuar
de las personas con la información más relevante de una organización de una manera sencilla [4].
2 Estado del Arte
En pleno siglo XXI vivimos rodeados de dispositivos, y éstos viven de las aplicaciones de las que
disponga su sistema operativo. Cada plataforma es un mundo y los rápidamente cambiantes sistemas
operativos conforman un ecosistema digital [5]. De ahí surge como requisito el desarrollo de
aplicaciones multiplataforma, el cual se realiza a través de una estructura de software compuesta de
componentes personalizables e intercambiables.
Cuando se inicia un proyecto, se contempla el hecho de crear una aplicación, y es necesario
determinar la perspectiva de diseño; ya que la diversidad de plataformas, dispositivos y
características propias de cada una de ellas dificulta la creación de la App, sobre todo si se desean
abarcar todos o la gran mayoría de las plataformas disponibles. Para adaptar el diseño de la App a
cada dispositivo se debe considerar: tamaño de pantalla, orientación, su plataforma, versión de la
plataforma, velocidad de procesamiento, cantidad de memoria, recursos de hardware, entre otros [5].
Existe una diversidad de Framework de Desarrollo de Aplicaciones Multiplataforma (web y móvil)
que amplían las posibilidades de desarrollo, dentro de las más populares están: Flutter, Ionic, React
Native, Xamarin, Appcelerator Titanium, jQuery Móvil, Móvil Angular UI, Weex, Corona SDK,
Unity, Qt, Intel System Studio. La elección correcta del framework depende en gran parte de la
planificación correcta del grupo de nuevas tecnologías, librerías y bases de datos, todo ello sin dejar
de lado la escalabilidad, un buen rendimiento y un funcionamiento [6].
Para efectos de este trabajo se utilizó el Framework Ionic el cual es un kit de herramientas de interfaz
de usuario de código abierto para crear aplicaciones móviles y de escritorio de alta calidad y de alto
rendimiento utilizando tecnologías web (HTML, CSS y JavaScript), se centra en la experiencia del
usuario frontend (controles, interacciones, gestos, animaciones) [7].
3 Metodología
Para crear el prototipo de la Tarjeta de Presentación Digital se adoptó la metodología de Desarrollo
Rápido de Aplicaciones o RAD, el cual es un concepto que adopta la metodología de programación
orientada a objetos y fomenta inherentemente la reutilización del software [8]. La idea principal de
esta metodología es entregar aplicaciones de alta calidad, en poco tiempo y con un coste bajo de
193
inversión. Para implementar el modelo de RAD, hay que seguir las siguientes fases [9]:
1. Modelado de gestión
2. Modelado de datos
3. Modelado de proceso
4. Generación de aplicaciones
5. Pruebas de entrega
3.1 Modelo de Gestión
Como primer paso es trazar el flujo de información entre las funciones de gestión (Fig. 1) de forma
que responda a las preguntas [10]: ¿Qué información conduce el proceso de gestión?, ¿Qué
información se genera?, ¿Quién la genera?, ¿A dónde va la información? y ¿Quién la proceso?
Fig. 1. Modelado de Gestión de Tarjeta de Presentación Digital
Así mismo se muestra en la tabla 2 algunos de los requerimientos identificados para la configuración
y operación de la Tarjeta de Presentación Digital.
Área Función Descripción
Arquitectura de
Aplicación
Aplicación Tener información del modelo de datos: con las entidades y sus
relaciones.
Aplicación La arquitectura de la aplicación debe tener la capacidad de ser
configurable.
Tecnología de
Desarrollo
Incluir información de la tecnología de lenguajes de programación
utilizados y cómo es la comunicación entre módulos y
proporcionar layout de los distintos componentes técnicos.
Integración de
Datos
Datos La aplicación debe validar todas las transacciones y proporcionar
información inmediata al usuario.
Archivos La aplicación debe tener la capacidad de intercambiar datos y / o
archivos (importación / exportación) con otras fuentes de
información.
Análisis Indicar si la aplicación tiene mediciones de calidad y consistencia
de los datos para ser analizados en el sistema.
Conectividad Software Cliente El software orientado al cliente debe permitir la conectividad,
inalámbrica o por red móvil desde un dispositivo inteligente, o
desde una página web.
Tabla 2. Requerimientos de Arquitectura de la Aplicación
3.2 Modelado de Datos
El Modelado de datos tiene en cuenta el flujo de información definido [10]. Se definen las
194
características de cada uno de los objetos y las relaciones entre estos objetos, como se observa en la
figura 2.
Fig. 2. Modelado de Datos
3.3 Modelado de Proceso
Los objetos de datos definidos en la fase de modelado de datos quedan transformados para lograr el
flujo de información necesario para implementar una función de gestión (Fig. 3). La descripción del
proceso se crea para añadir, modificar, suprimir, o recuperar un objeto de datos [10].
Fig. 3. Modelado de Proceso
La obtención, consolidación y resguardo de datos se realizan a través de un medio de almacenamiento en la
nube dependiendo el volumen de información como ayuda para futuros problemas en la implementación.
3.4 Generación de Aplicaciones
El RAD asume la utilización de técnicas de cuarta generación, el proceso trabaja para volver a utilizar
componentes de programas ya existentes o crear componentes reutilizables (cuando sea necesario).
En todos los casos se utilizan herramientas automáticas para facilitar la construcción del software
(Fig. 4).
195
Fig. 4. Generación de Aplicaciones
La generación de aplicaciones se basa en la planificación, la cual garantiza que los recursos se
coordinen adecuadamente para cumplir las especificaciones del diseño, así como minimizar el
impacto en las incidencias del servicio que se presta al usuario.
3.5 Pruebas de Entrega
La implementación de los procesos, actividades y funciones necesarias de la prestación del servicio
de Tarjetas de Presentación Digitales se realizaron de acuerdo con las exigencias establecidas (Fig.
5):
a) Registro de Usuarios b) Registro de Datos Personales c) Servicios y/o Productos
Fig. 5. Pruebas realizadas en IPhone y Android
a. En el módulo de Usuario muestra una tabla con todas las tarjetas disponibles.
b. En la parte del Cliente, la herramienta permite tener una aplicación multiplataforma propia
profesional, donde se puede plasmar lo mejor del negocio o productos en tiempo real.
c. El módulo de Servicios y/o Productos es esencial ya que tiene una relevante importancia en
establecer, documentar y promover con creatividad los artículos para brindar credibilidad y
llamar la atención de clientes potenciales, pero sobre todo el ser visible en los buscadores.
Con respecto a la prueba de funcionalidad se utilizó Page Speed Insights de Google con lo que se
comprobó que la aplicación permite la omisión de inicio de sesión y muestra los datos de los
productos y/o servicios para los usuarios registrados, cuenta con la opción de compartir la
información por redes sociales como facebook, whatsapp, Instagram y código QR. El diseño de
aplicación es funcional y disponible desde cualquier dispositivo con acceso a internet (Fig. 6).
a) Aspecto Móvil b) Aspecto Ordenador
196
Fig. 6. Ejecución de prueba con Page Speed Insights
El diseño de la aplicación utiliza la técnica de Responsive Web Design para adaptar las ventanas en
diferentes dispositivos, sin embargo, se identifica la oportunidad de mejorar algunos detalles con el
uso pluggins para garantizar la buena experiencia del usuario. La prueba con web.dev entregó un
resultado de accesibilidad de 68 esto quiere decir que la app logra ser utilizada por el máximo número
de personas, independientemente de sus conocimientos o capacidades personales e
independientemente de las características técnicas del equipo utilizado (Fig. 7).
Fig. 7. Análisis de rendimientos a través de web.dev
Aunque el resultado no es malo, el rendimiento en el entorno móvil llega a tener niveles de retardo,
que pueden ser significativos en el lado del cliente por el tiempo de respuesta y los recursos que
dispone el dispositivo, dejando áreas de oportunidad para la optimización de tiempo de respuesta.
4 Resultados
La aplicación realizada brinda una forma rápida, ágil para el diseño de Tarjetas de Presentación
Digitales (Fig. 6) basada en una aplicación multiplataforma logrando lo siguiente:
a. Estructurar una serie de diseño atractivo para los usuarios.
b. Disponibilidad de servicio.
c. Agilidad y adaptación al cambio.
d. Mantener la información actualizada.
e. Acceso inmediato y atractivo al usuario para fomentar su interés.
f. Compartir fácilmente la información en las redes sociales.
197
Fig. 7. Aplicación de Tarjetas de Presentación Digitales
Esta aplicación permite a las empresas y/o personas que tienen negocios, adaptarse a las exigencias
de la situación actual.
5 Conclusiones y Trabajos Futuros
La tecnología cada vez tiene un papel más importante en la vida cotidiana, este proyecto es parte de
ese cambio, sin embargo, la transición aún no se ha completado, prueba de ello es que la gente sigue
utilizando herramientas previas a la tecnología digital como son las tarjetas de presentación físicas,
folletos, entre otras y de igual manera las siguen viendo como buenas opciones. Aplicaciones como
la de “Tarjetas de Presentación Digitales” impulsa las ventas y relaciones con clientes potenciales,
ayuda a las personas a mejorar la promoción de ellos mismos, de sus productos, servicios o de su
negocio, es una herramienta fácil, rápida e intuitiva que agrega un plus, no busca sustituir todas las
herramientas existentes, si no complementarlas y de esta forma potenciar el objetivo del usuario.
Tiempos sin precedentes podría ser la palabra de moda de 2020 gracias al COVID-19, el virus ha
afectado muchas facetas de nuestras vidas, incluido nuestro comportamiento de compra y sólo las
empresas que han sabido adaptar rápidamente sus estrategias comerciales han prosperado. Las
Tarjetas de Presentación Digitales es una estrategia que se puede emplear para encontrar nuevos
clientes al ofrecer un servicio sin fisuras entre los medios de comunicación, pero sobre todo que sean
de rápido desarrollo dejando atrás los desarrollos tradicionales que tienen tiempos de desarrollo muy
largos.
Estudios han demostrado que los clientes que tienen una experiencia excelente están más dispuestos
a:
● Recomendar esa empresa en las redes sociales (83%) [11],
● Comprar más productos y servicios de esa empresa (89%) [11] y
● Desviarse de su camino para comprar en esa marca (82%) [11].
Lo anterior demuestra que el marketing no sólo es beneficioso, sino imprescindible y la
transformación digital ayuda a responder a las necesidades del cliente con agilidad, centrándose en
analizar que se quiere conseguir y no en cómo se va a implementar fomentando la productividad al
diversificar la naturaleza del trabajo que hoy en día se está moviendo y optimizando a través de
herramientas digitales.
Con respecto a trabajo futuros se tiene contemplado lo siguiente:
198
● La implementación de pluggins que permitan optimizar el tiempo de respuesta, el proceso de
sincronización de datos y el manejo peticiones concurrentes.
● Realizar un estudio de rendimiento y escalabilidad del entorno de programación.
● Realizar un análisis comparativo con otras herramientas disponibles para el diseño de
aplicaciones multiplataforma.
● Comparar estos framework con las plataformas de low-code, que a diferencia de los
framework éstas son proporcionadas por un tercero con otras prestaciones que es de nuestro
interés analizar.
Referencias
[1] S. Herbert A., «Digitalcollections,» 1971. [En línea]. Available:
https://digitalcollections.library.cmu.edu/awweb/awarchive?type=file&item=33748. [Último acceso: 15
Abril 2021].
[2] A. Hutchinson, «Social Media Today,» 29 Marzo 2017. [En línea]. Available:
https://www.socialmediatoday.com/social-business/why-creativity-matters-more-age-mobile-infographic.
[Último acceso: 15 Abril 2021].
[3] J. Desjardins, «Visual Capitalist,» 13 Marzo 2019. [En línea]. Available: visualcapitalist.com.. [Último
acceso: 18 Febrero 2021].
[4] A. Bonnet de León, J. L. Saorin, J. de la Torre-Cantero, C. Meier y E. García Marrero, «Diseño y
fabricación digital de tarjetas pop-ups en entornos educativos mediante tecnologías de bajo coste,» Edutec
Revista Elecrónica de Tecnología Educattiva, nº 67, pp. 48-65, 29 Marzo 2019.
[5] A. Báez Ibarra, N. Arellanes Cancino y A. Sosa Perdomo, «Efectividad de la Aplicación de Metodologías
Ágiles para el Desarrollo de Apps,» Revista de Sistemas Computacionales y TIC’s, vol. II, nº 6, pp. 45-66,
Diciembre 2016.
[6] C. Rodríguez y H. Enríquez, «Características del desarrollo en Frameworks multiplataforma para móviles,»
Ingenium, Revista de la Facultad de Ingeniería, vol. 15, nº 30, pp. 101-117, 30 Septiembre 2014.
[7] Rosepac, «¿Qué es Ionic?, Un espectacular framework multiplataforma,» 28 Junio 2020. [En línea].
Available: https://ciberninjas.com/ionic-framework/. [Último acceso: 23 Abril 2021].
[8] Tech Target Search DataCenter, S. A. de C.V., «Search DataCenter,» Enero 2020. [En línea]. Available:
https://searchdatacenter.techtarget.com/es/definicion/Desarrollo-rapido-de-aplicaciones-o-RAD. [Último
acceso: 8 Febrero 2021].
[9] M. Castro, «Incentro Spain,» 25 Diciembre 2019. [En línea]. Available: https://www.incentro.com/es-
es/blog/stories/metodologia-rad-desarrollo-rapido-aplicaciones/. [Último acceso: 10 Febrero 2021].
[10] O. Arbeláez Salazar, F. A. Medina Aguirre y J. A. Chaves Osorio, «Tools for rapid development of web
applications,» Scientia et Technica, nº 47, pp. 254-258, 01 Abril 2011.
[11] J. Martínez, «Incentro España,» 14 Abril 2021. [En línea]. Available: https://www.incentro.com/es-
es/blog/stories/ventajas-tecnologia-headless/. [Último acceso: 29 Abril 2021].
199
Proceso de desarrollo de software en empresas mexicanas
Patricia Martínez Moreno 1
José Antonio Vergara Camacho 2
Gabriel Reyes Cruz 3
Javier Pino Herrera 4
1 Universidad Veracruzana. Facultad de Contaduría y Administración Campus Coatzacoalcos. Profesor de Tiempo Completo de la Licenciatura en
Ingeniería de Software. pmartinez@uv.mx
2 Universidad Veracruzana. Facultad de Contaduría y Administración. Campus Coatzacoalcos. Profesor de Tiempo Completo de la Licenciatura en
Ingeniería de Software. jvergara@uv.mx
3 Universidad Veracruzana. Facultad de Contaduría y Administración. Campus Coatzacoalcos. Matriculado en la Licenciatura en Ingeniería de Software
gabreyescruz@gmail.com
4 Universidad Veracruzana. Facultad de Contaduría y Administración. Campus Coatzacoalcos. Profesor de Tiempo Completo de la Licenciatura en
Ingeniería de Software. jpino@uv.mx
Abstract. Software quality assurance is key to software engineering when developing a software product.
However, although it is a key element in implementing the software development process, only a few
companies implement it either because of inefficient management or inefficient start-up of the
development process. The objective of the review was to identify good practices at each stage of software
development in Mexican companies. In the development, the Systematic Literature Review was applied,
from which categorized research articles from indexed journals and databases (such as IEEE, Scielo,
Scopus and Redalyc) between 2015 and 2021 were evaluated and interpreted. The methodology used in
this research was a qualitative approach, mainly with a descriptive and an explanatory design, in which a
non-probabilistic convenience sampling of 25 companies was used. The results show the essential steps
taken during the development process and among the findings are that only 14 companies specified testing
their software product, 2 companies claim to use good practices with the use of standards when generating
the source code and only 17 companies provide support and support material for deployment.
Keywords: Process, software, best practices, quality, stages.
1 Introducción
El concepto de software, tal y como lo define la IEEE std. 610 son “programas, procedimientos y
documentación y datos asociados, relacionados con la operación de un sistema informático” [17]. Para 1968,
Fritz Bauer define a la Ingeniería de Software como el establecimiento y uso de principios robustos de la
ingeniería a fin de obtener económicamente software que sea fiable y que funcione eficientemente sobre
máquinas reales [16]. En la disciplina de la Ingeniería de Software se estudia el proceso de desarrollo de
software como el ente nodal para llegar y alcanzar un producto de software.
Por otra parte visualizando la problemática respecto al porcentaje de proyectos de software que fracasan,
según el informe anual CHAOS [18], el 66% de los proyectos de software (basados en el análisis de 50.000
proyectos a nivel mundial) terminan en fracaso parcial o total. Un análisis deficiente de los requisitos causa
muchos de estos fracasos, lo que significa que los proyectos están condenados desde el principio [19][20].
La razón de ser de este trabajo de investigación tiene como finalidad responder la incógnita ¿las empresas
Mexicanas aplican buenas prácticas en el proceso de desarrollo de software? A partir de la revisión sistemática
de la literatura de empresas mexicanas dedicadas al desarrollo de productos de software, se analizan las etapas
empleadas para concretar un producto con la mejor calidad posible. Se deja ver lo medular del proceso para la
industria del software en México, las etapas que son imprescindibles para tales empresas y en caso de aplicar
alguna buena práctica para el aseguramiento de la calidad del producto en cada una de las etapas de desarrollo.
Cabe señalar, que esta indagación no busca señalar de manera específica a ninguna empresa sino por el
contrario conocer a partir de una pequeña muestra de empresas mexicanas como se encuentran la industria del
software en México con respecto al proceso de desarrollo en términos globales.
200
2 Etapas en el proceso de desarrollo de software
Generalmente en el ciclo de vida de los proyectos de desarrollo de software aparecen las etapas de
requerimientos de software, diseño, construcción, pruebas y el despliegue. Al seguir esta serie de etapas, las
empresas de software pueden desarrollar software de una manera predecible y manejable.
En primer lugar tenemos la etapa de obtención de requerimientos de software que tiene como propósito
obtener y comprender, las necesidades y limitaciones de las partes interesadas del sistema a desarrollar, además
se realiza la documentación de todo ello en una especificación de requisitos [3], [4]. Esta es una etapa crítica
del proceso de software, ya que los errores en ella pueden llevar inevitablemente a inconvenientes en el diseño
y la implementación del sistema.
En relación con lo anterior viene el diseño o modelado del software es la etapa del ciclo de vida en la que se
analizan los requisitos del software para producir una descripción de la estructura interna del software que
servirá como base para su construcción [4]. En dicha etapa se define la arquitectura, los componentes, las
interfaces y otras características de un sistema o componente [5]. Además en el modelado de sistemas se
desarrollan modelos abstractos de un sistema, y cada modelo presenta una vista o perspectiva diferente de ese
sistema [6].
El siguiente punto trata de la etapa de construcción de software donde se incluye un conjunto de tareas de
codificación que lleva a la creación de un software funcional, esto a partir de la etapa anterior de diseño [4]. Se
lleva a cabo la creación directa del código fuente del programa, la generación automática de código fuente que
usa una representación intermedia parecida al diseño del componente que se va a construir o la generación
automática de código ejecutable [7].
Otro punto es respecto a las pruebas, con estas se busca evaluar y verificar que el producto software hace lo
que se supone debe hacer. Las pruebas de software consisten en la verificación de que un programa proporciona
los comportamientos esperados en un conjunto limitado de casos de prueba. Las pruebas ya no deben de
considerarse solo después de que se completa la fase de codificación solo con el propósito de detectar fallas.
Las pruebas de software deberían ser realizadas durante todo el ciclo de vida de desarrollo y mantenimiento
[4].
Por último está el despliegue, es una etapa en la que el sistema se instala en estaciones de trabajo o se
hospeda como una aplicación y es accesible para otros usuarios en un estado de tiempo de ejecución. Dicha
etapa consiste en una serie de actividades interrelacionadas que incluyen la liberación del software al final del
ciclo de desarrollo; su configuración, su instalación en el entorno de ejecución y su activación [8].
3 Buenas prácticas en el proceso de desarrollo de software
En el proceso de desarrollo de software se suelen cometer muchos errores, los desarrolladores con más
experiencia han aprendido a prevenirlos, y han proporcionado buenas prácticas que les han servido, ayudando
a que futuros profesionales del área no vuelvan a cometerlos. Por lo tanto las buenas prácticas se pueden definir
como un conjunto de métodos rutinarios para evitar en gran medida problemas del desarrollo de software [1].
Respecto a cuáles son algunas de las buenas prácticas que se pueden aplicar a las etapas del proceso de
desarrollo, a continuación se recomiendan las fundamentales:
3.1 Buenas prácticas en los requerimientos del software
Para esta etapa es necesario entender al cliente. Este normalmente tendrá que explicar lo que necesita
de forma excesiva o menor de lo real [2].
Para llegar a tener una comunicación más eficiente en esta etapa, se puede lograr cambiando la
comunicación de discusiones formales impulsadas por un plan a discusiones informales entre
individuos [9]. Además se deben documentar claramente los requisitos del cliente y realizar un
seguimiento de los cambios en estos requisitos. Se debe analizar el impacto de los cambios en el
sistema antes de aceptarlos [6]. También se debe mencionar un problema común que es no hacer una
separación entre los requisitos del usuario y los requisitos del sistema. “Los requisitos del usuario
son declaraciones, en un lenguaje natural y con ayuda de diagramas, de los servicios que se espera
que el sistema proporcione a los usuarios del sistema y las restricciones bajo las cuales debe operar”
201
[6]. Los requisitos del sistema son descripciones más detalladas de las funciones, los servicios y las
limitaciones operativas del sistema de software [6].
Otra buena práctica es realizar un prototipo de alta y baja fidelidad. Normalmente, el prototipo sirve
como mecanismo para identificar los requisitos del software.
3.2 Buenas prácticas en el diseño del software
Una vez que se analizan y especifican los requisitos, el diseño es la siguiente etapa para realizar, esta
es la etapa en la que se establecen las bases de la calidad.
En cuanto a modelar visualmente el software se necesita una buena metodología que sea capaz de
captar adecuadamente y con precisión las necesidades de los usuarios, siempre es recomendado
utilizar el punto de vista de la orientación a objetos, los diagramas UML son una buena práctica para
presentar las vistas estáticas y dinámicas del software, y permitir que el diseño sea más fácil de
realizar de modo que tenga más eficiencia como base para la construcción [6], [10]. Los diagramas
UML que se utilizan, son el diagrama de casos de uso, el diagrama de clases y el diagrama de
secuencia, entre otros.
3.3 Buenas prácticas en la construcción del software
En cuanto a la etapa de programación o desarrollo, aquí se lleva a cabo la generación del código a
partir del diseño. Los fundamentos para llevar a cabo buenas prácticas son: minimizar la complejidad,
anticipar el cambio, construcción para verificación, reutilizar, y utilizar normas durante la
construcción. La aplicación de estándares de desarrollo durante la construcción ayuda a obtener
eficiencia, calidad y costo de un proyecto. En los lenguajes de programación el uso de estándares son
ayudas importantes para lograr una mayor seguridad. Los estándares que afectan directamente los
problemas de construcción incluyen:
Métodos de comunicación (por ejemplo, estándares para formatos y contenidos de documentos),
estándares para lenguajes de programación en específico, estándares de codificación (por ejemplo,
estándares para convenciones de nomenclatura, diseño y sangría), plataformas (por ejemplo,
estándares de interfaz para llamadas al sistema operativo) [4]. Tambien es importante controlar los
cambios en el software, administrar los cambios mediante un sistema de gestión de cambios.
3.4 Buenas prácticas en las pruebas del software
Las pruebas de software son esenciales para la creación de productos de software de alta calidad.
Dado que es una tarea costosa y difícil de gestionar, su implementación organizativa tiene que estar
bien fundamentada. Algunas de las principales buenas prácticas a tomar en cuenta son:
Una organización de programación no debe probar sus propios programas, todo proceso de prueba
debe incluir una inspección exhaustiva de los resultados de cada prueba, examinar un programa para
ver si no hace lo que se supone que tiene que hacer es sólo la mitad de la batalla; la otra mitad es ver
si el programa hace lo que no se supone que tiene que hacer, una parte necesaria de un caso de prueba
es la definición de la salida o resultado esperado [11], pruebas multiplataforma, y ejecución
automatizada de pruebas [12].
3.5 Buenas prácticas en el despliegue del software
Entre las buenas prácticas principales para llevar a cabo un buen despliegue de software se
encuentran:
Lista de comprobación de implementación: Se debe anotar cada paso necesario para implementar
código en los distintos entornos para crear una lista de comprobación. Esta lista garantizará que se
202
olvide nada. Proporcionar a los usuarios finales materiales de apoyo: Deben desarrollarse materiales
de capacitación apropiados, es necesario proveer lineamientos para solución de problemas [7]. Otro
punto importante para es la automatización del proceso de despliegue. Durante el despliegue de
software se tienen altas probabilidades de cometer errores, debido a que en la mayoría de los casos
se realiza de forma manual y son muchos pasos los que se deben de realizar. Si no se ejecutan todos
los pasos necesarios en el despliegue de forma precisa, el producto software no funcionará de forma
satisfactoria [13]. Otro aspecto trata la colaboración y comunicación: Se recomienda que la
colaboración debe estar desconectada del proceso. Y también se recomienda que se reduzca el
intercambio de correos electrónicos innecesarios en cada paso del proceso, ya que esto podría ahorrar
mucho esfuerzo de comunicación [14]. La integración continua también se recomienda puesto que
aporta un resultado con un código de mayor calidad y confiable para la mitigación de riesgos. Esta
es una práctica que para ser aplicada correctamente, debe cumplir con ciertos requisitos como son:
mantener un único repositorio del proyecto, automatizar la compilación y despliegue para que se
ejecuten cada vez que el equipo haga un commit [15].
4 Metodología
Durante el desarrollo de la indagación documental, se aplicó la Revisión Sistemática de la
Literatura que es básicamente una manera de evaluar e interpretar toda la investigación disponible,
que sea relevante respecto de una interrogante de investigación particular, en un área temática o
fenómeno de interés [21]. Por lo que, se evaluaron e interpretaron artículos de investigación
categorizados en revistas indexadas y bases de datos como IEEE, ScienceDirect, Scielo, Scopus y
Redalyc entre el año 2016 y 2020.
La metodología aplicada fue de enfoque cualitativo principalmente con diseño descriptivo y
explicativo, en la cual se usó un muestreo no probabilístico por conveniencia en donde participaron
25 empresas mexicanas.
5 Empresas Mexicanas desarrolladoras de software
Se investigaron los procesos de desarrollo que utilizan, así como las etapas que consideran, ver
TABLA I. Aquí vale la pena decir que la gran mayoría de empresas investigadas si muestran las
etapas de su proceso de desarrollo de software pero brindan poca información detallada respecto
a cada una de esas etapas. Así pues los resultados obtenidos son los siguientes:
Al principio del proceso de desarrollo 20 de las 25 empresas empiezan con las etapas de
requerimientos del software, mientras que las otras 5 empiezan con una planificación y después
con la obtención de requerimientos. Fueron 16 empresas las que contemplan la etapa de diseño.
Todas las empresas contemplan por separado la etapa de desarrollo, y lo mismo para la etapa de
pruebas. También resalta una etapa para la capacitación y soporte. Y solo 17 empresas ponen
como etapa el despliegue en su proceso. Así pues de lo anterior se puede afirmar que más de la
mitad de las empresas mexicanas de desarrollo de software aplican las principales etapas en el
ciclo de vida del software.
Empresa Etapas Estado Año
ACE&KBA Planificación. UI/UX. Diseño. Desarrollo. Pruebas. Monterrey 2021
Axsis
Tecnología
Análisis y diseño. Construcción. Integración. Implementación. Monterrey 2020
DeSoftware
Planeación y arquitectura. Estimación de trabajo. Desarrollo.
Fase final. Colima 2020
Espora
Estudio
Análisis. Diseño. Desarrollo. Pruebas. Implementación.
Ciudad de
México
2019
203
Empresa Etapas Estado Año
eSystems
México
Recopilar información. Propuesta. Diseño. Desarrollo. Pruebas.
Lanzamiento.
Baja
California
2020
Grupo PERTI
Propuesta de solución. Análisis, diseño y especificaciones.
SOW y aceptación. Pruebas de componentes tecnológicos.
Construcción. Diseño UI/UX. Pruebas de integración de
sistemas y unitarias. Implementación. Entrega y liberación.
Ciudad de
México
2020
HighBits
Definición y análisis de requerimientos. Arquitectura y diseño.
Desarrollo y control de cambios. Pruebas y validación.
Implementación.
Chiapas 2020
Imds
Diseño y arquitectura. Programación.
Pruebas. Documentación. Mantenimiento.
Ciudad de
México
2020
Integra IT Análisis. Diseño. Implementación. Pruebas. Integración.
Ciudad de
México
2020
Intekel Planeación. Ejecución. Pruebas. Implementación. Veracruz 2020
Itrends Diseño. Desarrollo. Explotación. Campeche 2020
Leben
Software
Documentación y entendimiento de necesidades. Propuesta de
solución. Construcción. Implementación.
Estado de
México
2020
Mangoo
software
Consultoría. Estimación tecnológica. Plan de inversión y
propuesta tecnológica. Formalización. Consultoría: Ingeniería
o reingeniería. Determinación de flujos de procesos (BPMN).
Maquetado tecnológico. Codificación Construcción. Pruebas
(Internas, del cliente). Puesta en producción. Evolución y
mantenimiento.
Puebla 2020
Metodika
Análisis. Arquitectura. Diseño. Soporte. Implementación.
Pruebas. Desarrollo.
Monterrey 2021
OK
HOSTING
Toma de requerimientos, conocimiento de la empresa y
necesidades. Propuestas y cotizaciones. Arranque de proyecto.
Entrega y pruebas de estrés. Mantenimiento. Soporte técnico.
Guadalajara 2020
Q Marketing
Internet
Diseño. Desarrollo. Publicación.
San Luis
Potosí
2020
RAMSCT Plan de investigación. Desarrollo ágil. Liberación de aplicación.
Ciudad de
México
2020
Raxione Requerimientos. Diseño. Programación. Despliegue. Morelos 2021
Scio
Requerimientos. Diseño de arquitectura. Diseño de la
experiencia del usuario (UX). Desarrollo y pruebas.
Michoacán 2021
Softdem
Análisis de requisitos. Diseño. Análisis y diseño.
Implementación y pruebas.
Veracruz 2020
SOFTTIS
Planificación. Codificación. Implementación. Pruebas.
Liberación. Adaptación. Operatividad y supervisión del
software.
Ciudad de
México
2020
SYE Software
Passion
Connect. Research. Design Think. Lean – UX. Planning. Agile
DEV. Improvement.
Guadalajara 2020
TASI
SOFTware
Identificación de requerimientos. Diseño de Software.
Desarrollo de Software. Pruebas de Software. Gestión de
Proyectos TI.
Ciudad de
México
2020
Vexilo Diagnóstico. Diseño. Desarrollo.
Ciudad de
México
2020
X1 México
Planificación. Análisis y diseño. Implementación. Control de
calidad.
UAT y despliegue con una gestión y control de proyecto
continua.
Ciudad de
México
2020
Tabla 4. Etapas del proceso de software que utilizan las empresas mexicanas.
6 Resultados
Los resultados muestran que todas las empresas empiezan con una correcta comunicación para la
obtención de los requisitos de las partes interesadas, y fueron pocas empresas que especificaron el
uso del estándar ERS-IEEE-830 en esta etapa. Al lado de ello 9 empresas también realizan prototipos,
diseño UI/UX para confirmar los requisitos con el cliente antes de la construcción. Y de los datos
obtenidos solamente 14 empresas especificaron realizar las pruebas correspondientes a su producto
software, 2 empresas afirman utilizar buenas prácticas con el uso de estándar al generar el código
fuente, hay que mencionar que solo 2 empresas hicieron mención importante al uso de control de
204
cambios en sus procesos. Fueron 17 empresas las que brindan soporte y material de apoyo para el
despliegue.
Empresa Buenas prácticas
ACE&KBA
Análisis y Planificación Estratégica. Wireframe. Capacitación y documentación. Diseño
UI/UX basados en estándares.
Axsis
Tecnología
Especificación de requerimientos. Análisis y diseño de la aplicación. Casos de prueba de
unidad. Pruebas de unidad. Casos de prueba de unidad. Pruebas del sistema. Pruebas de
aceptación. Capacitación.
DeSoftware
Creación del modelo de requerimientos iniciales, creación de mockups, estructura inicial
de la base de datos. Pruebas unitarias, entregas parciales al cliente para validación de
funcionalidades y ajustes a los requerimientos iniciales. Instalación en el ambiente de
producción y pruebas completas del sistema y capacitación.
Espora
Estudio
Definición del problema: colaboran con el cliente para definir el problema y
documentarlo. Uso de estándares para definir los requerimientos del sistema. Análisis del
problema: las ideas son convertidas en prototipos funcionales. Producción: Se coloca el
sistema en los servidores del cliente y se le da un monitoreo sobre los errores que hayan
salido.
eSystems
México
Comprensión de las necesidades del cliente. Creación de prototipos de la función y el
diseño de estructuras. Pruebas de control de calidad. Prueba de usuario. Pruebas beta.
Mantenimiento.
Grupo PERTI
Documento con todas las especificaciones del proyecto. Verificación de requisitos
especificados de acuerdo con las tecnologías aplicadas. Aplicación de parámetros para
diseño de interfaz y la experiencia del usuario. Creación de prototipos.
HighBits
Obtención de requerimientos con el estándar ERS-IEEE-830. Control de cambios.
Prototipos alfa y beta.
Imds
IEEE Std. 830-1998. Documento ERS. UML. Diagrama de Entidad/Relación. Modelo
cercano a la programación orientada a objetos.
Integra IT
Infraestructura de nube con aplicaciones con alta disponibilidad, rendimiento y tolerancia
a fallos. Entendimiento del negocio, con el descubrimiento de sus procesos, estrategias y
problemáticas de negocio.
Intekel
ISO 9001:2008. Definición de la Arquitectura del proyecto. Diseño de pantallas o
mockups. Diseño del modelado de datos. Plan de pruebas.
Itrends
Diseño de prototipo no funcional. Resguardo y control de cambios. Todo el código fuente
se guarda en repositorios privados, con la plataforma Gitlab para llevar el control de
cambios y la implementación automática.
Pruebas en entorno similares a los reales.
Leben
Software
Entendimiento correcto del problema. Correcta comunicación en la obtención de
requisitos. Entregables funcionales constantes. Soporte al cliente en la puesta de
producción del software.
Mangoo
software
Análisis a detalle de los procesos, departamentos y actores de los procesos a sistematizar.
Maqueta tecnológica antes de la construcción. Comprobación de la correcta operación.
Metodika
Análisis para determinar las características de la solución revisando que cumpla con los
objetivos propuestos por el cliente. Se define cómo interactuarán los diferentes
componentes del sistema. Adecuación a la arquitectura requerida por el cliente. Diseño
UX/UI. Uso de estándares de código mundiales cuidando la calidad del desarrollo.
Hypercare durante el despliegue. Pruebas unitarias y de integración para asegurar la
calidad del producto.
OK
HOSTING
Comunicación prácticamente diaria durante todo el desarrollo del proyecto. Terminado
el sistema se somete a pruebas de uso.
Q Marketing
Internet
Identificación de las necesidades de la empresa, para ayudar a aterrizar la idea del
proyecto de manera que resulte útil y funcional.
RAMSCT
Entendimiento de negocio, determinación de alcances funcionales. Demo visual y
maquetación. Control de calidad y testing QA. Infraestructura. Documentación y
manuales. Soporte productivo.
Raxione Desarrollo iterativo. Diseño de UX/UI. Fábrica de pruebas.
Scio
Cobertura multiplataforma. Escalabilidad e inter-operatividad. Seguridad y
cumplimiento. Definición de perfiles de los usuarios. Diseño de experiencia del usuario.
Prototipos para realizar pruebas de usabilidad y validar diseños. Pruebas para detectar
errores y problemas antes de que se publique la aplicación. Mantenimiento y soporte.
Softdem
Identificar casos de uso. Organizar casos de uso en grupos. Asignar requerimientos no
funcionales a casos de uso. Detalle a partir de modelos de alto nivel. Diagramas de
secuencia. Verificar cumplimiento de requerimientos. Análisis de robustez. Diagramas
de clases. Componentes. Pruebas de sistema y aceptación basadas en casos de uso.
SOFTTIS
Documentación del usuario. Revisiones técnicas. Pruebas del sistema. Pruebas beta y
reglas para la liberación. Definición de arquitectura de software. Reutilización de análisis.
Trazabilidad de requisitos. Casos de prueba. Programar/construir la aplicación que
incluya la definición de estándares de codificación.
SYE Conocimiento acerca de las necesidades del negocio. Planificación de la arquitectura.
205
Empresa Buenas prácticas
Software
Passion
Desarrollo de software de manera iterativa e incremental.
TASI
SOFTware
Se capturan y describen detalladamente los requerimientos de funcionalidad y de calidad
del producto que se desarrolla. Diseño de interfaz UX bajo los estándares recomendados
para cada tipo de plataforma y tipo de aplicación. Pruebas digitales, pruebas de
movilidad, pruebas en la nube, pruebas de datos, pruebas de seguridad, pruebas de
implementación, pruebas funcionales, pruebas de rendimiento y servicios de pruebas de
automatización.
Vexilo Entender la visión del cliente. Desarrollo con metodologías ágiles
X1 México
Se garantiza que la aplicación hace lo que tiene que hacer. Se garantiza que lo hace como
tiene que hacerlo. Se garantiza la seguridad de la aplicación. Se garantiza la correcta
integración con terceras partes. Se garantiza el rendimiento mediante técnicas de estrés.
Se garantiza la compatibilidad para los dispositivos especificados.
Tabla 2. Buenas prácticas que aplican las empresas mexicanas durante el proceso de desarrollo de software.
7 Conclusiones
En internet se puede aprender a desarrollar un producto software, sin embargo, esto no es algo difícil
de realizar, lo difícil es crear un producto software que cumpla con una serie de buenas prácticas para
que este sea de calidad. En esta investigación se afirma que más del 50% de empresas contemplan
las cinco etapas importantes para el proceso de desarrollo: requerimientos de software, diseño,
construcción, pruebas y despliegue, mientras que el resto contemplan el desarrollo en menos etapas.
En cuanto a buenas prácticas 20 de 25 empresas realiza una correcta obtención de requerimientos
que es de suma importancia porque dicha etapa es la base para el resto, también la mayoría hizo
mención en la realización de pruebas. Aunque fueron pocas las empresas que hicieron mención en el
uso de buenas prácticas en las etapas de despliegue y construcción. Es un hecho que las empresas
que más crecen son las que más invierten en diseño y mejor lo gestionan. Los esfuerzos de desarrollo
de software dan como resultado la entrega de un producto de software que satisface los requisitos del
usuario. Así como las competencias distintivas de una empresa pueden ser difíciles de imitar por
otras, sus mejores prácticas pueden ser difíciles de replicar de igual forma, es porque con el uso de
buenas practica en el proceso de desarrollo puede aportar un gran cambio, como se hizo mención
anteriormente el uso de esas prácticas es comúnmente utilizado por empresas que tienen buenos
resultados. El proceso de propagar las mejores prácticas a través de una organización está lleno de
desafíos, pero es un esfuerzo que bien vale la pena realizar.
Referencias
[1] M. G. García Sandoval, H. D. Ariza Torrado, M. Lucia Pinzón, y A. S. Flórez Fuentes, “Buenas prácticas aplicadas a la
implementación colaborativo de aplicativos web “, Mundo Fesc, vol. 5, n.º 10, pp. 27-30, feb. 2016.
[2] R. Noriega Martinez, El Proceso de Desarrollo de Software. North Charleston, SC: Createspace Independent Publishing
Platform, 2015.
[3] A. Fleischmann, Distributed systems: Software design and implementation, 1994th ed. Berlin, Germany: Springer, 1994.
[4] P. Bourque and R.E. Fairley, eds., Guide to the Software Engineering Body of Knowledge, Version 3.0, IEEE Computer
Society, 2014; www.swebok.org.
[5] B. Bruegge and A. H. Dutoit, Object-oriented software engineering using UML, patterns, and java, 3rd ed. Upper Saddle
River, NJ: Pearson, 2009.
[6] I. Sommerville, Software Engineering: United States Edition, 9th ed. Upper Saddle River, NJ: Pearson, 2010.
[7] R. Pressman, “Ingeniería del software: un enfoque práctico”, 7th ed. Mexico: McGraw Hill Interamericana, 2010.
[8] A. Dearle, "Software Deployment, Past, Present and Future," Future of Software Engineering (FOSE '07), 2007, pp. 269-
284, doi: 10.1109/FOSE.2007.20.
[9] M. Pikkarainen, J. Haikara, O. Salo, P. Abrahamsson, and J. Still, “The impact of agile practices on communication in
software development,” Empir. Softw. Eng., vol. 13, no. 3, pp. 303–337, 2008.
206
[10] Maylawati, D. Sa’adillah, Ramdhani, M. Ali, Amin, and A. Syakur, “Tracing the linkage of several unified modelling
language diagrams in software modelling based on best practices”. International Journal of Engineering & Technology
(UEA), 2018.
[11] G. J. Myers, T. Badgett, and C. Sandler, The art of software testing, third edition. John Wiley & Sons, 2012.
[12] R. Chillarege, “Software Testing Best Practices”. IBM Research Division, 1999.
[13] A. Yeja Hernández and J. Rubier Porven, “Procedure for the security of the deployment process of web applications”. Revista
Cubana de Ciencias Informáticas Vol. 10, No. 2, 2016.
[14] V. Mohan, L. ben Othmane and A. Kres, "BP: Security Concerns and Best Practices for Automation of Software Deployment
Processes: An Industrial Case Study," 2018 IEEE Cybersecurity Development (SecDev), 2018, pp. 21-28, doi:
10.1109/SecDev.2018.00011.
[15] J. Zapata, Y. Ceballos Fernando, and, “Herramientas y buenas prácticas para el aseguramiento de calidad de software con
metodologías ágiles”. Revista de Investigación Desarrollo e Innovación Vol. 6, Nº. 1, págs. 73-83, 2015.
[16] F. L. Bauer, Ed., Software engineering: An advanced course, 1975th ed. Berlin, Germany: Springer, 2006.
[17] IEEE, IEEE Standard Glossary of Software Engineering Terminology/IEEE STD 610.12-1990. Piscataway, NJ: IEEE
Publications, 1991.
[18] S. Group, “The Standish Group Report - CHAOS”. Project Smart, 2014.
[19] J. Z. Ruiz, “¿Por Qué Fracasan los Proyectos de Software? Un Enfoque Organizacional,” 2004.
[20] Statista Research Department, “Reasons for software project failure globally 2015,” Statista.com, 2015.
https://www.statista.com/statistics/627648/worldwide-software-developer-survey-project-failure/.
[21] B. Kitchenham “Procedures for performing systematic reviews (TR/SE-0401 )” Retrieved from Keele, 2004. UK:
http://www.inf.ufsc.br/~aldo.vw/kitchenham.pdf
207
IX. Innovación en
TIC
208
Plataforma digital para Facilitar el Acceso a la Información sobre
Estrategias para Reutilizar Productos Comerciales
José Manuel Cuenca Lerma 1
y Angelica Valeria Morales Su 1
1
Colegio Agustín de Hipona. Carretera San Andrés, kilómetro 6 s/n, Colonia Barrio de Xico, CP. 93160,
Coatzintla, Ver. México.
josemanuel@lermaserver.com , angelicamorales@lermaserver.com
Resumen. En el presente trabajo se diseña e implementa una plataforma digital para conocer estrategias
de reutilización de productos comerciales con tan sólo enfocarlos. Dicha plataforma se desarrolla como
una aplicación móvil Android que lee el código de barras de los productos y con ello recupera del servidor
accesos a videos contextualizados que explican cómo darles un segundo uso. La aplicación móvil se
implementa con Kotlin y el servidor con PHP y MySql. Además, la comunicación se realiza utilizando la
API REST encapsulando los datos en JSON con encriptación SHA-256.
La plataforma es utilizada por los estudiantes de bachillerato en el Colegio Agustín de Hipona en
Coatzintla, Veracruz, México. Más del 50% de los usuarios está al menos de acuerdo en que la plataforma
utiliza tecnologías conocidas, reduce los tiempos de búsqueda y presenta datos contextualizados. Por lo
tanto, facilita el acceso a la información sobre estrategias para reutilizar productos.
Abstract. A digital platform is designed and implemented to know strategies for the reuse of commercial
products just by focusing on them. This platform is developed as an Android mobile application that reads
the barcode of the products and then retrieves contextualized videos links from the server that explain
how to give them a second use. The mobile application is implemented with Kotlin and the server with
PHP and MySql. Furthermore, the communication is done using the REST API, encapsulating the data in
JSON with SHA-256 encryption.
The platform is used by high school students at Colegio Agustín de Hipona in Coatzintla, Veracruz,
Mexico. More than 50% of users agree at least that the platform uses known technologies, reduces search
times and presents contextualized data. Therefore, it facilitates access to information on strategies to reuse
products.
Keywords: Computación en la nube, Reutilización de Productos, Sistemas basados en web.
Introducción
Cuando dañamos a la Tierra, nos dañamos a nosotros mismos… frase de David Orr. En los últimos
años se ha ido incrementando la cantidad de basura generada en México. Acorde con estadísticas
oficiales [1], en nuestro país se generan aproximadamente 53.1 millones de toneladas de basura
anualmente. Por ello, es considerado como el país que más residuos sólidos genera en América Latina
[2]. Esto es un problema alarmante, debido a que los residuos mal tratados afectan al ecosistema y
son una de las causas principales de diferentes tipos de contaminación.
Para afrontar esta problemática se han implementado una gran variedad de programas
gubernamentales. Por ejemplo, en la CDMX se implementa el programa Basura Cero, el cual busca
mejorar las condiciones ambientales y aumentar las actividades de cultura ambiental [3].
Asimismo, desde el 2004 se ha estado fomentando a nivel mundial la implementación de hábitos de
consumo orientados a Reducir, Reutilizar y Reciclar los residuos [4]. En este sentido, cada vez más
empresas nacionales e internacionales están incluyendo estos hábitos en su normativa con la finalidad
de reducir el impacto ambiental en sus procesos [5].
Sin embargo, en México aún no hay una infraestructura suficiente para apoyar estos programas, por
lo tanto, se necesita una proyección a largo plazo donde los sectores públicos y privados se
comprometan en el cuidado del medio ambiente [6].
Otro aspecto importante a mencionar es que para generar mayor conciencia en la población se han
desarrollado diferentes iniciativas para fomentar la Educación Ambiental [7]. En consecuencia, se
han realizado actividades colectivas de reciclaje, campañas a través de medios de comunicación
209
masiva, concursos científicos, entre otros [8].
Además, los paradigmas tecnológicos de vanguardia, como la computación en la nube, han tenido
una contribución significativa en el proceso de transmitir información de una manera más eficiente
[9]. De igual manera, los dispositivos móviles han sido de gran ayuda en este proceso debido a que
se puede acceder a los datos en todo momento y en todo lugar [10]. También, cada vez más
aplicaciones en la nube están optimizadas para ser multiplataforma [11].
Por lo anterior, el objetivo de este proyecto es fomentar la educación ambiental utilizando tecnologías
de computación en la nube. Se trabaja en específico con la reutilización de productos para contribuir
a la cultura de las “tres R”. Por ello se propone una estrategia para conocer las estrategias para
reutilizar un producto comercial con tan sólo enfocarlo.
Estado del Arte
Para fomentar la educación ambiental se han desarrollado diferentes propuestas que tienen como
objetivo transmitir la información de manera más efectiva.
Por ejemplo, se han implementado agentes inteligentes para analizar las características de los
estudiantes y proponer estrategias de aprendizaje personalizadas [12]. De igual manera, en [13] se
han desarrollado propuestas de educación ambiental desde la perspectiva pedagógica para cumplir
con los estándares de calidad del proceso de enseñanza - aprendizaje.
Asimismo, se han desarrollado sistemas computacionales para fomentar este tema.
En [14,15] se utiliza la realidad virtual para promover una experiencia que permita a los usuarios
interactuar con el ambiente y acceder a simulaciones sobre cómo las acciones cotidianas pueden
afectar al ecosistema.
Las tecnologías de cómputo en la nube también han sido utilizadas para facilitar el acceso a contenido
didáctico. En [16] se propone un software como servicio que permite a los estudiantes de un colegio
poder acceder a material educativo y realizar exámenes para evaluar lo aprendido. Con ello, los
profesores pueden identificar y apoyar a los alumnos de bajo rendimiento.
En este sentido, en [17] se realiza un prototipo de una plataforma de cómputo abierta que implementa
las buenas prácticas del manejo de recursos educativos acorde con la educación tecnológica moderna.
Otra aportación relevante es que en [18] se proponen lineamientos para asegurar que la información
se comparta de manera íntegra y segura.
Por lo anterior, se constata que la manera más eficiente de almacenar y recuperar la información es
utilizando software en la nube. Respecto al reconocimiento de los productos, se utiliza su código de
barras [19, 20] debido a que son un identificador único. Además, en [21] estos códigos son utilizados
para promover ambientes interactivos de aprendizaje donde los estudiantes tienen la oportunidad de
acceder a material actualizado y mejorar sus habilidades.
Metodología Utilizada
En esta sección se describe el diseño e implementación de la plataforma digital. Se utiliza una arquitectura
cliente - servidor donde el cliente es la aplicación móvil que utilizan los usuarios y el servidor es el artefacto
de software que almacena la información.
Diseño del sistema
La arquitectura del sistema computacional se muestra en la figura 1. El cliente utiliza un modelo de
tres capas. La capa gráfica (GUI) es con la que interactúa el usuario y muestra la información del
sistema. Dicha capa se comunica con la lógica para solicitar información. Asimismo, la capa lógica
hace uso de la librería ZXing para interpretar el contenido de los códigos de barras de los productos.
210
Para recuperar información del servidor, la capa lógica llama a la capa de comunicación. Esta última
encapsula la información con la ontología JSON y la encripta mediante el estándar SHA-256 para
después enviar la petición al servidor mediante el protocolo HTTPS.
El servidor recibe la solicitud del cliente en la capa de comunicación. Dicha capa hace uso de la
librería Php Slim para la implementación del API REST. La capa de comunicación llama a la lógica
para resolver la solicitud del usuario. La capa lógica se comunica con la capa de datos para realizar
las transacciones SQL con el gestor de bases de datos.
Fig. 1. Arquitectura del sistema
Implementación del sistema
La tecnología utilizada para la implementación del sistema se muestra en la tabla 1.
El cliente es una aplicación Android Nativa, sin embargo, algunos módulos son automatizados
mediante tecnologías web para mostrar de una manera más eficiente la información. Dichos módulos
se comunican entre JavaScript y Kotlin mediante una interfaz web para llamar a funciones nativas
del sistema operativo.
El servidor es web y utiliza Php para implementar sus funciones. Además, los datos son guardados
en MySQL. Todas las consultas del sistema se encapsulan en procedimientos almacenados para
independizar las transacciones de la base de datos y las operaciones del servidor.
Cliente Servidor
Back - End Kotlin, JavaScript Php
Front - End XML, HTML 5, CSS3 -
Encapsulamiento de
datos
JSON
Almacenamiento de
datos
SQLite MySQL
Plataforma de
publicación
Google Play Hostinger
Tabla 1. Tecnología utilizada
Resultados Experimentales
El resultado técnico consiste en una aplicación móvil Android llamada “Un Segundo Uso” que está
disponible para los dispositivos con versión del sistema 5.0 o superior. El software cumple con los
estándares de publicación de Google Play, por lo tanto, ya puede ser distribuida a través de dicha
tienda de aplicaciones.
Al ingresar al sistema los usuarios pueden acceder a la información de sus productos mediante un
motor de búsqueda o leyendo el código de barras. Enseguida se muestra una lista con la descripción
del producto y se puede tener acceso a la base de datos de videos. En esta última se muestra la
211
descripción de cada tutorial para darle un segundo uso al producto junto con el acceso para
visualizarlo. Los videos se encuentran alojados en la plataforma de YouTube (ver figura 2).
Fig. 2. Capturas de Pantalla del Sistema
La plataforma digital es utilizada por los alumnos de bachillerato del Colegio Agustín de Hipona en
Coatzintla, Veracruz, México. Dicha institución brinda servicios educativos en la zona norte del
estado de Veracruz. En el nivel medio superior se encuentran inscritos 46 estudiantes, por lo tanto,
se les aplicó una encuesta después de mostrarles la funcionalidad del sistema.
Se utiliza la escala Likert para estructurar la encuesta y las afirmaciones son agrupadas en tres
variables para demostrar que se facilita el acceso a la información [22]: uso de tecnologías conocidas,
reducción de los tiempos de búsqueda y contextualización de la información. Los resultados de la
aplicación de la encuesta se muestran en la figura 3.
Fig. 3. Resultados de la encuesta
Conclusiones
Debido a que más del 50% de los usuarios del sistema están al menos en acuerdo que la aplicación
utiliza tecnologías ya conocidas, reduce los tiempos de búsqueda de información y presenta datos
contextualizados. Se llega a la conclusión de que el uso de la plataforma digital facilita el acceso a
información sobre estrategias para reutilizar productos comerciales.
212
Además, se aporta al cumplimiento de los Objetivos del Desarrollo Sostenible propuestos en la
Agenda 2030 de la ONU. Específicamente en el objetivo cuarto de educación de calidad debido a
que se propone una estrategia innovadora para fomentar la educación ambiental. Asimismo, en el
noveno de industria, innovación e infraestructura por la razón de que se establece una plataforma
para que las empresas promuevan la reutilización de sus productos.
Considerando la naturaleza digital de la plataforma, el proyecto puede replicarse en otras ciudades
eficientemente. Solamente se requeriría implementar más servidores por cada área geográfica para
distribuir el procesamiento computacional.
Como trabajo futuro se busca implementar módulos de inteligencia artificial para identificar los
productos con técnicas de visión por computadora, proponer una lista de productos similares para
complementar la información y establecer medios para que los usuarios puedan darles una
calificación a los videos y que así estos últimos se ordenen de acuerdo a su popularidad.
Agradecimientos. Se agradece a los revisores del artículo por sus contribuciones a la
investigación y al Colegio Agustín de Hipona por todas las facilidades otorgadas para el diseño e
implementación de la plataforma digital.
Referencias
[1] Gaceta de la Comisión Permanente. Medio ambiente y recursos naturales. Recuperado el 9 de agosto de
2021 en: https://www.senado.gob.mx/64/gaceta_comision_permanente/documento/98295
[2] Forbes. México es el líder en generación de residuos en América Latina: ANIPAC. Recuperado el 9
de agosto de 2021 en: https://www.forbes.com.mx/mexico-es-lider-en-generacion-de-
residuos-en-america-latina-an ipac/
[3] SEDEMA. Basura Cero. Recuperado el 9 de agosto de 2021 en:
https://sedema.cdmx.gob.mx/programas/programa/basura-cero
[4] INECOL. Las tres R: Una opción para cuidar nuestro planeta. Recuperado el 9 de agosto de 2021 en:
https://www.inecol.mx/inecol/index.php/es/transparencia-inecol/17-ciencia-hoy/413-las-tres- r-una-opcion-para-cuidar-
nuestro-planeta
[5] Expansión. Empresas mexicanas se suman a ”las 3R” para cuidar el ambiente. Recuperado el
9 de agosto de 2021 en: https://expansion.mx/empresas/2021/05/18/empresas-mexicanas-se-suman-a-
las-3r-para-cuid ar-el-ambiente
[6] López Casarín, J. Reciclaje en México. Recuperado el 9 de agosto de 2021 en:
https://www.eleconomista.com.mx/opinion/Reciclaje-en-Mexico-20191030-0001.html
[7] Toscana, F. La educación ambiental desde la infancia ayudará a mitigar el cambio climático. Recuperado el 9
de agosto de 2021 en: https://notipress.mx/vida/educacion-ambiental-desde-la-infancia-
ayudara-a-mitigar-cambio-c limatico-8160
[8] Hernández, C. Educación, motor para los desafíos ambientales de hoy. Recuperado el 9 de agosto de
2021 en: https://www.milenio.com/content/ganan-premio-creacion-de-valor-compartido-de-nestle
[9] Rioseco París, M. y Sanbueza Henríquez, S. Integración de las herramientas de “la nube” en el proceso de enseñanza -
aprendizaje. Educación y Comunicación, pp. 81-95. 2014.
[10]Singla, C. y Kaushal, S. Empowering education through mobile cloud computing based learning process models. 015
IEEE 3rd International Conference on MOOCs, Innovation and Technology in Education (MITE), pp. 257 - 267. 2015.
[11]Jiugen, Y., Ruonan, X. y Rongrong, K. Research on interactive application of online education based on cloud
computing and large data. 2017 IEEE 2nd International Conference on Big Data Analysis (ICBDA), pp. 593-596. 2017.
[12]Kotova, E. E. Supporting the Process of Training Specialists in an Integrated Educational Environment. 2018 Third
International Conference on Human Factors in Complex Technical Systems and Environments (ERGO)s and
Environments (ERGO), pp. 140-145. 2018.
[13]Bodáné Kendrovics, R. y Demény, K. The role of sustainable development in the Environmental Engineering
Education. 2019 International Council on Technologies of Environmental Protection (ICTEP), pp. 143-147. 2019.
[14]Yu, Z. y Lin, X. The Impact of Environmental Education with Immersive Environment on Learning Performance and
Environmental Identity. 2019 First International Conference on Transdisciplinary AI (TransAI), pp. 18-21. 2019.
[15]Krupnova, T., Rakova, O., Lut, A., Yudina, E., Shefer, E. y Bulanova, A. Virtual Reality in Environmental Education
for Manufacturing Sustainability in Industry 4.0. 2020 Global Smart Industry Conference (GloSIC), pp. 87-91. 2020.
[16]Samanthula, B. K., Mehran, M., Zhu, M., Panorkou, N. y Lal, P. Experiences Toward An Interactive Cloud-Based
Learning System for STEM Education. 2020 IEEE Integrated STEM Education Conference (ISEC), pp. 1-6. 2020.
[17]Xiangyan, Z. Application Study of Modern Educational Technology under Cloud Computing Platform. 2016 Eighth
International Conference on Measuring Technology and Mechatronics Automation (ICMTMA), pp. 122-125. 2016.
213
[18]Li, D. Research on the Sharing Model of University Archives Information Resources Based on Cloud Computing. 2021
13th International Conference on Measuring Technology and Mechatronics Automation (ICMTMA), pp. 721-724.
2021.
[19]Ueno, R. y Mitsugi, J. Barcode fingerprinting: Unique identification of commercial products with their JAN/EAN/UCC
barcode. 2018 IEEE 4th World Forum on Internet of Things (WF-IoT), pp. 416-420. 2018.
[20]Ali, A. M. y Farhan, K. A New Approach For Expansion the Throughput Capacity of the Quick Response Code. 2019
First International Conference of Computer and Applied Sciences (CAS), pp. 226-231. 2019.
[21]Tretinjak, M. F. The implementation of QR codes in the educational process," 2015 38th International Convention on
Information and Communication Technology, Electronics and Microelectronics (MIPRO), pp. 833-835. 2015.
[22]Cuenca Lerma, J.M. y Liahut Flores, L. Diseño e Implementación de un Sistema Computacional Distribuido para
Facilitar el Acceso a Información Contextualizada sobre los Niveles de Intensidad del Sonido en Tiempo Real.
Tecnologías Educativas y Estrategias Didácticas, pp. 72-81. 2020.
214
X. Inteligencia
Artificial
215
Análisis de Ciberataques en una Ciudad Inteligente utilizando
Dispositivos IoT e Industria 4.0
José Antonio Orizaga Trejo1
Cecilia Cobián Sandoval2
Tonatiuh Guadalupe Nava Razon3
Marco Antonio
Pérez Cisneros4
Víctor Manuel Larios Rosillo 5
Jesús Raúl Beltrán Ramirez6
1
Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los
Belenes, 45100 Zapopan, Jalisco. México
jose.orizaga@academicos.udg.mx
2
Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los
Belenes, 45100 Zapopan, Jalisco. México
cecilia.cobian9099@alumnos.udg.mx
3
Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los
Belenes, 45100 Zapopan, Jalisco. México
tonatiuh.nava@alumnos.udg.mx
4
Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los
Belenes, 45100 Zapopan, Jalisco. México
marco.perez@cucei.udg.mx
5
Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los
Belenes, 45100 Zapopan, Jalisco. México
victor.larios@academicos.udg.mx
6
Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los
Belenes, 45100 Zapopan, Jalisco. México
raul.beltran@academicos.udg.mx
Resumen. Las Tecnologías de Internet de las Cosas, Industria 4.0 favorecen la aparición y desarrollo de
las Smart Cities, la Industria 4.0 hace uso de nuevos paradigmas de información y propone nuevas
soluciones a un problema cada vez más complejo. Nos encontramos con la posibilidad de sufrir ataques
en la red dentro de esta tecnología IoT, afectando las conexiones y el sistema debido a la saturación y
exposición en términos de seguridad. Este artículo se refiere a estos conceptos, propone un proyecto de
dispositivo IoT con sensores para aplicaciones específicas de la industria, y presenta un modelo con
tecnología de aprendizaje automático para prevenir ciberataques mediante máquinas de soporte vectorial
y el set de datos NSL-KDD.
Palabras clave: Smart Cities, Ciberataques, Industria 4.0, IoT.
1. Introducción
Hoy en día, en un mundo cada vez más globalizado, nos adentramos a una nueva revolución industrial, en el
cual buscamos comunicarnos con todo aquello que nos pueda proporcionar información, con la cual podamos
medir y mejorar nuestros procesos así como mejorarlos, más sin embargo en un nuevo panorama donde
millones de dispositivos se conectan a una red que va en crecimiento de manera exponencial es muy importante
no dejar pasar aquellas nuevas amenazas que buscan poder sacar beneficio o simplemente dañar así como
comprometer todos aquellos dispositivos que generan información vital que nos ayudar a mejorar nuestros
procesos así como informar sobre eventos o sucesos.
Actualmente los ataques informáticos se han ido expandido afectando en gran medida a una gran
cantidad de recursos informáticos dentro de la red global, mejor conocida como internet, la situación
pandemia que el mundo cruza actualmente, llevando a muchas de nuestras actividad a llevarlas a
internet, como el trabajo virtual, clases virtuales, entre otras muchas mas, un reporte por Thales
Global Data Threat Report 2021 (Grupo Thales, 2021), indica que la gestión de riesgos es cada ves
mas difícil, ya que casi el 50% de la empresas han experimentado ciberataque en los últimos 12
meses.
Parte importante a considerar es que normalmente los dispositivos IoT utilizan protocolos de
comunicación ligeros cuales no pueda dar problema en conexiones con anchos de banda limitados,
216
muchos de los principales tipos de ataques en dispositivos IoT son los tipos de denegación de
servicios o (DDoS), por ello es necesario el desarrollo de un IDS que nos pueda ayudar en el
monitoreo, así como en la mitigación de conexiones maliciosas en ciudades inteligentes donde los
sensores IoT puedan estar comprometidos.
2. Estado del Arte
En el 2016 Miray botnet, un ataque de tipo DDos, realizo ataques utilizando mas de 400,000
dispositivos de manera simultanea y distribuida en equipos zombi. En 2019, Kaspersky reportó un
total de 105 millones de ataques a dispositivos IoT que se originan a partir de direcciones IP únicas
en más de 276.000 ubicaciones esto indica que los ciberataques están creciendo exponencialmente
en línea con el creciente despliegue de estos dispositivos, una pista de esto es que en 2018, se registró
una cifra 7 veces inferior a la de 2019, esto es preocupante ya que los ataques están en aumento a
medida que más empresas y personas implementan dispositivos con poca seguridad en sus
infraestructuras de red cada día, algunos datos recopilados de honeypots nos dicen que los ataques
no son muy sofisticados y que utilizan las mismas características, por lo que en este trabajo,
abordamos el uso de máquinas de soporte vectorial para entrenar un algoritmo de aprendizaje
automático utilizando el conjunto de datos NSL-KDD con el que queremos predecir conexiones de
tipo maligno en función de las características que cada tipo de conexión puede presentar hacia
Dispositivos IoT.
3. Metodologia
En la figura 1, mostramos un pequeño diagrama de un modelo de conexión de un prototipo para
dispositivos dispositivo IoT.
Fig. 1. Diseño del prototipo de IoT.
Empleamos para el entrenamiento del algoritmo, el uso del conjunto de datos NSL KDD el cual contiene
4,900,000 registros de conexiones dentro de las cuales podemos identificar 4 principales grupos de los cuales
contienen 42 características, dentro de los registros podremos encontrar conexiones normales como ataques.
En la tabla 1, se muestra el nombre de esta característica para cada instancia dentro de la base de datos.
217
No. Nombre de la característica
1 duración
2 Protocol_type
3 servicio
4 bandera
5 Src_Bytes
6 Dst_Bytes
7 tierra
8 Wrong_fragment
9 urgente
10 caliente
11 Num_Failed_logins
12 Logged_in
13 Num_compromised
14 Root_Shell
15 Su_attempted
16 Num_root
17 Num_file_creations
18 Num_shells
19 Num_acces_file
20 Num_outbound_cmds
21 Is_host_login
22 Is_guest_login
23 contar
24 Srv_count
25 Serror_rate
26 Srv_serror_rate
27 Rerror_rate
28 Same_srv_rate
29 Same_srv_rate
30 Diff_srv_rate
31 Srv_diff_host_rate
32 Dst_host_count
33 Dst_host_srv_count
34 Dst_host_same_srv_rate
35 Dst_host_diff_srv_rate
36 Dst_host_same_src_port_rate
37 Dst_host_srv_diff_host_rate
38 Dst_host_serror_rate
39 Dst_host_srv_serror_rate
40 Dst_host_rerror_rate
41 Dst_host_srv_rerror_rate
42 Normal o ataque
Tabla 1. características del set de datos NSLKDD.
En el set de datos NSL-KDD se encuentra cuatro clases principales en función de las características
que presentan cada una de estas y se muestran en la tabla 2.
Clase Subclases
Probing Ipsweeep, nmap, satan
U2R Buffer_overflow, perl, loadmodule,
rootkit
R2L ftp_write, guess_passwd, imap,
multhop, phf, spy, warezclient,
warezmaster
Dos Back, land, neptune, pod, smurf,
teardrop
Tabla 2. Clases principales en el set de datos NSL-KDD.
Empleamos One-Hot para convertir nuestros datos en un vector binario. Al emplear matrices de
vectores binarios permitimos que el algoritmo de máquinas de soporte vectorial pueda aprovechar la
información contenida en valores de categorías. E eliminamos posibles confusiones causadas por la
ordinalidad. Para poder medir el performance de la detección de las intrusiones empleamos una
matriz de confusión y las métricas empleadas para ellos son Accuracy, precision, recall y F1 score.
3.1 Matriz de confusión
En el campo de la inteligencia artificial así como para aprendizaje automático se emplean las matriz de
confusión, la cual es una herramienta que nos permitirá previsualizar el desempeño de un algoritmo; dentro de
la matriz de confusión cada columna representa el numero de predicciones de cada clase, así como las filas son
instancias de las clases reales, así como se presentan en la Tabla 3.
Valores de
predicción.
Verdaderos Positivos Falsos Positivos
Falsos Negativos Verdaderos Negativos
Valores reales
218
Tabla 3. Conjunto de métricas para la matriz de confusión.
3.2 Accuracy
Es el indicador de rendimiento más importante de la detección de intrusiones que se utiliza para medir el
rendimiento del algoritmo de máquinas de soporte vectorial, y se obtiene con la siguiente formula.
(𝑇𝑃+𝑇𝑁)/(𝑇𝑃+𝑇𝑁+𝐹𝑃+𝐹𝑁)
3.3 Precision
Es la relación entre el número de anomalías correctamente clasificadas y el número de anomalías normales y
correctamente clasificadas y podemos apreciar la formula para obtener este dato.
(TP)/(TP + EP)
3.4 Recall
Es una unidad de medida relativa del número de anomalías correctamente clasificadas al número de anomalías
clasificadas de manera natural.
(TP) / (TP + FN)
3.5 F1 Score
F1 score es una medida estadística de la precisión de una prueba o de un individuo.
F1 score = 2 (Precision * recall/ Precision + recall)
4. Resultados
Se desarrolla un sistema IoT con el cual estamos obteniendo información constante donde se alimenta
bases de datos constantemente, y parte importante del modelo es el modelo de machine learning
entrenado en el cual se seleccionó máquinas de soporte vectorial y cuyos análisis se emplean de
manera individual por cada clase.
Fig. 2. Matriz de confusión aplicado a la clase Dos.
Podemos ver en la matriz de confusión que nos refleja buenos resultados de predicción para la clase
de tipo DOS con los verdaderos positivos así como para la detección de los verdaderos negativos con
lo cual nos indica que puede detectar conexiones maliciosas y las conexiones normales, a
continuación mostramos las matrices de confusión para las demás clases.
219
Fig. 3. Matriz de confusión aplicado a la clase Probe.
En la figura 3 aplicada a la clase que representa las conexiones maliciosas de tipo Probe, notamos
que para la detección de conexiones maliciosas tiene buenos resultados más sin embargo para
conexiones normales no es tan bueno como en la clase de tipo Dos.
Fig. 4. Matriz de confusión aplicado a la clase R2L.
En la figura numero 4 nos sigue mostrando buenos resultados para los verdaderos positivos mas sin
embargo para el área de los verdaderos negativos baja considerablemente.
Fig. 5. Matriz de confusión aplicado a la clase U2R.
Para la matriz de confusión aplicado a la clase U2R son similares los resultados como para la clase
R2L.
5. Conclusiones y trabajos futuros.
Los resultados obtenidos con SVM muestran que es un buen algoritmo para trabajar con
aprendizaje supervisado, pero sería necesario compararlo con otros algoritmos. Notamos que el
algoritmo seleccionado es bueno para el reentrenamiento en caso de actualización de amenazas
así como en la escalabilidad de los datos, que son características que nos ayudaron en la selección
del algoritmo, mismo que tendremos que comparar con otros algoritmos
Agradecimientos. Agradecemos al Centro de Innovación de Smart-Cities de la Universidad de
Guadalajara por su colaboración e instalaciones para desarrollar esta investigación.
220
References
[1] H. Sossa, P. Rayón y J. Figueroa. Arquitectura basada en redes neuronales para el reconocimiento de rostros. Soluciones
Avanzadas. Año 7, No. 63. Noviembre 1998.
[2] P. Rayón and H. Sossa. A procedure to select the vigilance threshold for the ART2 for supervised and unsupervised
training. LNAI 1793, pp. 389-400, Springer Verlag, 2000.
[3] G.A. Carpenter and S. Grossberg, ART2: self-organizing of stable category recognition codes for analog input patterns.
Applied Optics, 26, pp. 4919-4930, 1987.
[4] R. Schalkoff, Pattern Recognition: statistical, structural and neural approaches. John Wiley & Sons, Inc., 1992.
[5] J. A. Freeman and D. M. Skapura, Neural Networks: algorithms, applications and programming techniques. Addison
Wesley, 1992.
[6] A. S. Pandya and R. B. Macy, Pattern Recognition with Neural Networks in C++. IEEE Press, 1995.
[7] G. Francis, The stability-plasticity dilemma in competitive learning. Department of Psychology Sciences. Purdue
University. Technical Report No. 96-1, 1996.
[8] C. G. Looney, Pattern Recognition using Neural Networks. Oxford University Press, 1999.
[9] Khalid Saeed et. Al Progress in Advanced Computing and Intelligent Engineering. India, Springer, 693 pp.
221
Ciencia de datos y predicción para el análisis del futuro climático
Silvia Soledad Moreno Gutiérrez 1
, Mónica García Munguía 2
and José Luis Alvarado Reséndiz 3
1
Universidad Autónoma del Estado de Hidalgo- Escuela Superior de Tlahuelilpan, Av. Universidad SN,
Centro, Tlahuelilpan, Hgo., 42780. México
silviam@uaeh.edu.mx
2
Universidad Autónoma del Estado de Hidalgo- Escuela Superior de Tlahuelilpan, Av. Universidad SN,
Centro, Tlahuelilpan, Hgo., 42780. México
monicagm@uaeh.edu.mx
3
Universidad Autónoma del Estado de Hidalgo- Escuela Superior de Tlahuelilpan, Av. Universidad SN,
Centro, Tlahuelilpan, Hgo., 42780. México
jose_alavarado4225@uaeh.edu.mx
Resumen. La baja radiación solar es atribuida a la intensa variabilidad climática que ha provocado
pérdidas cuantiosas a los agricultores y ha obligado a abandonar algunos cultivos básicos por alternativas
de menores requerimientos. Países de Latinoamérica esperan la disminución en la humedad de los suelos
conduciendo a una intensificación de los procesos de desertificación y degradación de los mismos, con el
consecuente descenso en la productividad agrícola. Se requiere de nuevos procesos para predecir las
condiciones de la radiación solar y evitar el daño al cultivo a través de técnicas de ciencia de datos con la
metodología CRISP-M. El trabajo se desarrolló a través del análisis del comportamiento de las variables
climáticas históricas, una RNA con funciones de base radial para predicción de radiación solar,
considerando datos climáticos de Europa. La precisión fue alta del 90%
Abstract Droughts are attributed to climate change that has forced many farmers to abandon corn
cultivation for alternatives with less water requirements. Latin American countries expect a decrease in
soil moisture, leading to an intensification of desertification and degradation processes, with the
consequent decrease in agricultural productivity. New processes are required to predict the conditions of
solar radiation and avoid damage to the crop through data science techniques with the CRISP-M
methodology. The work was developed through the analysis of the behavior of the historical climatic
variables, an ANN with radial base functions for prediction of solar radiation, considering climatic data
from Europe. Accuracy was high 90%.
Keywords: Climate change, Data science, Neural networks.
1 Introduction
En el mundo las condiciones climáticas desfavorables han ocasionado grandes pérdidas de rendimiento y
calidad de cultivos básicos, por ello, constituyen un problema grave debido a la importancia de estos alimentos
en la dieta básica de los seres humanos, además de esta situación adversa, han afectado directamente la
economía de las familias de los pequeños agricultores. Estas pérdidas han sido resultado de la falta de
información oportuna y de la alta incertidumbre que para los trabajadores del campo representa el aspecto
climático, enfáticamente hablando de la baja radiación solar misma que obstaculiza el sano desarrollo de los
cultivos [4]. Pese a la magnitud del problema, hoy en día son escasas las estrategias tecnológicas de predicción
eficaz ante el panorama futuro que expresan los diferentes factores climáticos [5].
Las altas temperaturas tienen efectos adversos sobre las plantas [6], este factor combinado con días
nublados da lugar a niveles bajos de radiación solar, en el caso de permanecer estas condiciones
durante días consecutivos, el daño irreparable se verá reflejado en el bajo rendimiento y la calidad
de los cultivos, así como en el daño cada vez mayor sobre los ingresos de las familias agrícolas [5].
Luego de realizar un análisis de la literatura, no se encontraron propuestas para a predecir radiación
solar alta o baja orientada a cultivos de cereales básicos.
Por lo anterior, el presente trabajo expone un sistema predictor de radiación solar y sus efectos sobre
el crecimiento de cultivos básicos, para reducir la incertidumbre y el volumen de perdidas, mediante
222
la aplicación de aprendizaje automático y ciencia de datos.
2 Estado del Arte
Según [2] México por estar ubicado en el trópico de cáncer confirma su alta vulnerabilidad ante el
cambio climático debido a las variaciones de temperatura y del nivel del mar, además del deshielo
registrado en las últimas décadas en el hemisferio norte.
En América, el sector agrícola ha sido fuertemente afectado por el fenómeno y episodios de baja
radiación solar; en el caso de los cultivos básicos los cuales demandan de manera urgente el
desarrollo de estrategias de apoyo a la toma de decisiones, también han sido vulnerados y dañados
por la insuficiente radiación [5].
Los factores climáticos extremos y sus cambios inesperados han ocasionado cambios en el desarrollo
de las planta, el incremento de temperatura por ejemplo origina una mayor acumulación de grados-
día de desarrollo, tanto por incremento de temperaturas diurna como nocturna, este hecho reducirá
el ciclo de madurez de la planta, siendo más crítico en zonas tropical y subtropical, de forma similar,
la baja radiación solar provocará anomalías en el desarrollo y en la calidad de las semillas, en el caso
de los cereales básicos [10].
En México se han desarrollado estudios sobre el cambio climático y su impacto en la agricultura,
pero no así las alternativas para afrontarlo, hoy en día, no se ha logrado la adaptación de los cultivos
a pesar del amplio número de propuestas disponibles por lo que no ha sido posible afrontar el
problema climático de manera suficiente que se logre alcanzar la autosuficiencia alimentaria en el
país [3]
En el sector agrícola se han desarrollado sistemas de predicción de rendimiento de frutas aplicando
técnicas de aprendizaje automático tales como las redes neuronales artificiales (RNA), esto se logró
a través del análisis de temperaturas extremas y del análisis de los atributos de las plantas en un
ambiente controlado, la precisión de la propuesta alcanzó el 93%. Otra propuesta de apoyo han sido
los modelos de simulación de cultivos diseñados con el apoyo de técnicas estadísticas de regresión
múltiple orientados a simular el desarrollo de cultivos de diversos cereales y predecir anomalías del
desarrollo, esto a partir de condiciones climáticas en espacios controlados, estos sistemas predicen
daños en cultivos y en algunos casos expresan deficiencias o fallas al analizar algunos países y exigen
grandes cantidades de registros, sin embargo., su uso es amplio en el estudio del desarrollo de los
cereales básicos [11].
La predicción de la radiación solar ha sido una tarea requerida en diversos espacios y con diversos
objetivo, tales como la agricultura y la medicina, esto dada la importancia y efecto que su ausencia o
exceso representa para los objetivos establecidos en cada área del conocimiento [8].
Por su parte, [7] desarrollaron un predictor de radiación solar mediante aprendizaje automático
aplicando técnicas tradicionales y de aprendizaje profundo con el objetivo de reducir la incertidumbre
relacionada y evitar daño al cultivo, aplicaron técnicas estadísticas de ciencia de datos y los resultados
fueron favorables y contribuyen a afrontar el efecto del cambio climático, aunque no en el sector
productor de cereales.
Un sistema basado en conocimiento fue también desarrollado para alcanzar objetivos de predicción
de la radiación solar aplicando técnicas de Inteligencia Artificial [9], sin embargo, las técnicas
estadísticas también han dado resultados de alta precisión [8].
3 Metodología aplicada
Se siguió la metodología de ciencia de datos CRISP-M (Cross Industry Standard Process for Data Mining)
[12], que consiste en los pasos que a continuación se exponen.
223
3.1. Entendimiento de los datos
La información provine de kaggle.com, espacio disponible a través de internet donde un equipo de
profesionistas se dedica a recopilar información y a construir bancos de datos de diversas áreas del
conocimiento, disponibles para los usuarios interesados, a su vez, ellos efectúan análisis de tendencias de uso.
Esta recopilación se efectuó durante el mes de abril con el apoyo de 175 personas que apoyaron.
3.1.2. Descripción de datos
Se contó con un total de 32,686 registros climáticos minuto a minuto del año 2016 y posteriores provenientes
de estaciones meteorológicas ubicadas en cada región de países europeos, los datos incluidos en formato csv
de tipo numérico son:
 radiación
 temperatura
 presión
 humedad
 velocidad
 dirección_del_viento
3.1.3. Exploración de datos
Durante este análisis, con el objetivo de lograr un mejor conocimiento de los datos para posterior
transformación se realizó un análisis estadístico de cada variable, al inicio se observó amplia dispersión en
algunas variables como: la variable objetivo, la dirección del viento y la humedad.
A través del histograma de cada variable, se observó una distribución cercana a la uniforme en las variables:
temperatura, la presión se desplaza a la izquierda y de forma más marcada la humedad, la velocidad se
encuentra desplazada a la derecha y la dirección del viento mostró comportamiento diferente a los anteriores.
La variable objetivo no posee distribución normal, mostró que la mayoría de los datos se concentran en el 0, se
observó mediante distribución de densidad kernel, debido a su distribución, se realizó una transformación
logarítmica para obtener una mejor distribución.
Luego de construir la matriz de correlación se observó alta correlación positiva de .71 entre la variable objetivo
radiación y temperatura, con las otras variables una menor correlación, con la dirección_del_viento de -0.26,
con la variable presión 0.31, con humedad .29.
3.1 4. Calidad de los datos
Los datos están completos, no se encontraron datos anómalos, se efectuó búsqueda de outliers sin encontrar
alguno.
3.2 Preparación de datos
Con base en los resultados del análisis multifactorial mediante la matriz de correlación que demostró
correlación alta entre la variable radiación (objetivo) y la variable temperatura, así como entre otras variables
antes mencionadas, al tratarse de un banco de datos con un número reducido de variables, se procedió a
incluirlas todas en el proyecto de predicción.
3.2.1 Limpieza valores faltantes
No existen valores faltantes en el conjunto analizado, esto se identificó a través del análisis para identificar
ausencia de datos en columnas o filas., por lo que no fue necesario ningún procedimiento de limpieza al
respecto.
224
3.2.2 Limpieza: valores anómalos
No se observaron valores atípicos, aun cuando se realizó el análisis para identificar outliers en la variable
objetivo, tomando en consideración el análisis mediante método basado en su densidad, extrayendo la
desviación estándar y la varianza y con base en ellas estableció los valores alejados que se consideraron
atípicos.
3.2.3 Construcción generación de atributos
Se realizó un reescalamiento de la variable objetivo, dada una distribución muy diferente a la distribución
normal, donde la mayor parte de los datos se encontraron cerca del 0, lo cual traería problemas para el modelo,
por tanto, se efectuó la transformación logarítmica - 1., con ello la distribución mejoró en gran medida.
Figura 1. Distribución de la variable objetivo. Fuente: elaboración propia
3.2.4 Transformación: normalización
Se realizó la normalización / transformación logarítmica, con el propósito de evitar posible sesgo en
el modelo, debido a las diferencias entre magnitudes de las variables.
Donde:
x patrones de entrada
x’ = log(x)
Ecuación 1. Escalamiento logarítmico
Figura 2. Distribución de la variable objetivo-transformada. Fuente: elaboración propia
3.2.5 Integración de datos
Finalmente los datos empleados para el modelo de predicción y la variable objetivo mostraron
distribuciones aceptables, cercanas a la distribución normal, por lo que se procedió al modelado.
3.3 Modelado
Considerando que se trata de una predicción con datos continuos, se decidió aplicar la técnica
225
regresión lineal múltiple.
Se diseñó además el modelo k-fold, con el propósito de efectuar un comparativo entre los resultados
en ambos casos. Finalmente se probó con un modelo lasso model buscando mejores resultados.
3.3.1 Entrenamiento
Se utilizó la técnica de test train Split 20-80 para realizar el entrenamiento del modelo, es decir 20%
de datos para evaluación y 80% para entrenamiento. Se entrenó un conjunto de datos y se empleó
otro conjunto para validar de la forma siguiente:
Para entrenamiento: 26148 registros
Para prueba: 6538 registros
3.3.2 Diseño de Evaluación.
Para estimar el rendimiento del modelo se utilizaron diferentes métricas:
Modelo de regresión lineal: R2 (coeficiente de correlación), RMSE (root-mean-square error), es
decir, error cuadrático medio y MAE (mean absolute error) es decir, error medio absoluto. Se validó
el modelo de k-fold mediante cross validation
4 Evaluación del modelo. Resultados
El modelo de regresión múltiple construido, se consideró la mejor alternativa considerando el tipo de
datos con los que se cuenta, además de que el objetivo es predicción de la radiación.
Sin embargo, se utilizó también k –fold y lasso model, y los resultados fueron similares. De cualquier
forma, el modelo de regresión múltiple por su permanente uso facilita la comprensión del trabajo
desarrollado, así como de sus resultados (Ver Tabla 1)
Métrica Resultado train Resultado target
R2 .85 .83
RMSE .36 .37
MAE .54 .55
Tabla 5. Resultados de rendimiento.
La variable humedad no fue considerada por el modelo, esto se probó además con lasso model y se
obtuvo la misma conclusión respecto a las variables. Los coeficientes que dan lugar al modelo de
regresión son:
dirección_del_viento .78, temperatura .18, velocidad .10 y presión .05
Fue conveniente probar con diferentes métrica para identificar los mejores resultados..
5 Conclusiones y direcciones para futuras investigaciones
La predicción de la radiación es valiosa en las tareas relacionadas con la prevención de daño en los
cultivos, contar con la información de manera oportuna constituye una herramienta para adelantarse
al futuro y estar en posibilidad de reducir riesgos o evitar pérdidas.
Es útil para el agricultor contar con mecanismos que incrementen su certidumbre alrededor de
factores que podrían afectar la siembra, posibilitando una actuación oportuna acompañada de la
creación de planes de contingencia eficaces. Los cambios repentinos en la radiación solar son
226
inevitables y causantes de daño y pérdidas, adelantarse al futuro permitirá proteger al cultivo.
La ciencia de datos ofrece amplias posibilidades en tareas de predicción, haciendo uso de técnicas
y modelos estadísticos se lograron los objetivos propuestos y el predictor diseñado se considera
adecuado.
A pesar de que las técnicas de Inteligencia artificial muestran desempeño favorable en estas
tareas, constituyen una alternative valiosa, no obstante, la estadistica ofrece resultados de alta
precision.
Los trabajos futuros consisten en la construccion de predicciones de la radiacion solar, basada en
los requerimiento de cada cultivo básico, considerando su alta sensibilidad ante la baja radiacion
solar, en muchos de los casos.
Referencias
[1] M. M. C. Zamora, «Cambio climático.,» Revista mexicana de ciencias forestales, pp. 04-07, 2015.
[2] P. F. &. P.-G. C. Martínez-Austria, «Efectos del cambio climático en la disponibilidad de agua en México.,» Tecnología
y ciencias del agua, pp. 5-20, 2012.
[3] Ruiz Corral, José Ariel, Medina García, Guillermo, Ramírez Díaz, José Luis, Flores López, Hugo Ernesto, Ramírez
Ojeda, Gabriela, Manríquez Olmos, José Damián, Zarazúa Villaseñor, Patricia, González Eguiarte, Diego Raymundo,
Díaz Padilla, Gabriel, & Mora Orozco, Celia de la. (2011), «Cambio climático y sus implicaciones en cinco zonas
productoras de maíz en México,» Cambio climático y sus implicaciones en cinco zonas productoras de maíz en México.
Revista mexicana de ciencias agrícolas, pp. 309-323, 2011.
[4] Paytas, M. J., Scarpin, G. J., Dileo, P. N., Winkler, H. M., & Keshav, K. (2019). Condiciones ambientales y cambio
climático. Combatir los efectos del cambio climático en el algodón: lo que los científicos y los gobiernos pueden hacer
al respecto. Asociación para la Promoción de la Producción Algodonera, Argentina.
[5] Moreno Gutiérrez, S. S., Toriz Palacios, A., López Pérez, S., & Ruiz Vanoye, J. A. (2019). Evaluador inteligente de
daño fenológico en la planta de trigo. CIENCIA ergo-sum: revista científica multidisciplinaria de la Universidad
Autónoma del Estado de México, 26(3), 1-12.
[6] Sillué, S. M., Daschner, Á., Navas, F. J. M., Rubio, C., Armendáriz, M. J. R. L., & Pérez, P. B. (2021). Informe del
Comité Científico de la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) en relación a los efectos del
cambio climático sobre la presencia de micotoxinas en los alimentos. Revista del Comité Científico de la AESAN, (33),
11-51.
[7] Ordoñez-Palacios, L. E., León-Vargas, D. A., Bucheli-Guerrero, V. A., & Ordoñez-Eraso, H. A. (2020). Predicción de
radiación solar en sistemas fotovoltaicos utilizando técnicas de aprendizaje automático. Revista Facultad de
Ingeniería, 29(54), e11751-e11751.
[8] Olivera, L., Salina, M., Atía, J., Denon, N., Gómez, J., Guzmán, J., ... & Morales, M. (2021). Aprendizaje profundo en
aplicaciones biomédicas, agronómicas y ambientales. In XXIII Workshop de Investigadores en Ciencias de la
Computación (WICC 2021, Chilecito, La Rioja).
[9]FUENTES-COVARRUBIAS, R., FUENTES-COVARRUBIAS, A. G., CORTESQUIROZ, J. A., & DE JESUS-
JUAREZ, J. G. (2018). Sistema basado en conocimiento para la predicción del clima para usos agrícolas Knowledge
Based system for predicting climate for agriculture uses. Cómputo Aplicado, 2(8), 1-11.
[10] Reeves, T. G., Thomas, G., & Ramsay, G. (2016). Ahorrar para crecer en la práctica: maíz, arroz, trigo. Guía para la
producción sostenible de cereales.
[11] Guti&errez, S. S. M., Palacios, A. T., Ruiz-Vanoye, J. A., & P&erez, S. O. L. O. (2018). Sustainable and technological
strategies for basic cereal crops in the face of climate change: A literature review. African Journal of Agricultural
Research, 13(5), 220-227.
[12] Espinosa-Zúñiga, J. J. (2020). Aplicación de metodología CRISP-DM para segmentación geográfica de una base de
datos pública. Ingeniería, investigación y tecnología, 21(1).
Sistema de clasificación multiclase para lesiones dermatológicas ideal
para Queratosis Actínica
Edgard José Maciel Cataño1
, Maricela Jiménez Rodríguez, José Trinidad Guillen Bonilla1
, Mario Eduardo
Cano González1
y Juan Carlos Estrada Gutiérrez1
1
Centro Universitario de la Ciénega, Universidad de Guadalajara, Av. Universidad, #1115, Col. Linda Vista,
C.P 47810, Ocotlán, Jalisco. México.
227
edgard.maciel@alumnos.udg.mx, maricela.jrodriguez@academicos.udg.mx,
trinidad.guillen@academicos.udg.mx, meduardo2001@hotmail.com, jcarlos.estrada@academicos.udg.mx
Resumen. En la presente investigación se muestra un clasificador multiclase empleado en imágenes
dermatoscopicas de nueve diferentes lesiones de piel como lo es el Carcinoma Baso Celular,
Dermatofibroma, Queratosis Actínica, Melanoma, Nevo Común, Queratosis Benigna Pigmentada,
Queratosis Seborreica, Carcinoma de Células Escamosas y Lesión Vascular, en el que se utilizan técnicas
como histogram matching, filtro de color, binarización adaptativa, CCR como descriptor, distancia
Manhattan como métrica de similitud y finalmente una matriz de confusión para evaluación del sistema,
por lo que el animo de de este trabajo es el desarrollo un clasificador de lesiones dermatológicas
especializado en el que se resalta la Queratosis Actínica, dando resultados del 100% siendo altamente
efectivo en su detección.
Palabras clave: Clasificación multiclase, Histogram Matching, CCR.
1. Introducción
Dentro de la detección del cáncer de piel auxiliada por computadora, el Melanoma ha sido el principal
protagonista, siendo pocos los estudios realizados a las demás lesiones cancerígenas, atípicas, benignas o poco
comunes, por lo que este trabajo propone un sistema de clasificación multiclase que otorgue la clasificación
automatizada a las lesiones no tan comunes como el melanoma. A diferencia de la tendencia de los últimos
años en la detección del cáncer de piel mediante redes neuronales e inteligencia artificial [1], la clasificación
hecha en este trabajo se centra primeramente en el histograma para la estandarización de cada clase, un filtro
de color y finalmente en la comparativa lineal entre 2 vectores característicos. Para la estandarización de las
clases, A. W. Setiawan utilizó técnicas cómo CLAHE Y MSRCR las cuales le permitieron tanto tonificar las
imágenes como estandarizarlas para después clasificarlas mediante redes neuronales [2]. En el proceso de
binarización, K. Roy et al. utilizaron el umbral adaptativo para evitar la pérdida de información de la imagen a
estudiar, asimismo segmentaron la imagen en k-means clusters y aplicaron una segmentación morfológica [3].
Relativo a los filtros de color, Germán Capdehourat et al. lograron obtener muy buenos resultados filtrando el
velo azul-blanquesino y la red de pigmentos aplicando un filtro de color a las imágenes dermatoscópicas [4].
Aunado a ello J. T. Guillen-Bonilla et al. propusieron un sistema estadístico para caracterizar por completo una
clase dada en un clasificador de una sola clase de pilas de granito, asimismo utilizaron la distancia Manhattan
como métrica de similitud y prepararon del camino para el clasificador multiclase del presente sistema [5].
Finalmente, para la clasificación multiclase, R. Maurya et al. implementaron un clasificador multiclase donde
evalúan 4 de las 9 clases descritas en este trabajo, donde previamente utilizaron GLCM para la extracción de
características y SVM como clasificador [6].
En el presente trabajo se muestra una clasificación multiclase de 9 diferentes lesiones dermatológicas
usando técnicas como histogram matching, filtro de color, binarización adaptativa, CCR como descriptor de
características, distancia Manhattan como métrica de similitud y finalmente una matriz de confusión con la
evaluación del sistema propuesto.
2. Metodología
En la investigación realizada se muestra la metodología para la clasificación, en la que se obtuvieron
imágenes de la base de datos ISIC 2019 [7], donde se establecieron 9 clases de imágenes dermatoscópicas,
correspondientes a 9 lesiones: Carcinoma Baso Celular (BCC), Dermatofibroma (DFB), Queratosis Actínica
(KER), Melanoma (MEL), Nevo Común (NEV), Queratosis Benigna Pigmentada (PKER), Queratosis
Seborreica (SEB), Carcinoma de Células Escamosas (SQU) y Lesión Vascular (VLE).
228
2.1 Delimitación de las clases
Se establecieron 50 imágenes por clase, las dimensiones de cada imagen fueron de 400 x 300 pixeles,
las imágenes seleccionadas son una muestra representativa de cada clase dermatológica la Figura 1 muestra las
primeras 20 seleccionadas.
Fig. 1. Muestra de las imágenes por clase.
2.2 Histogram Matching
Las imágenes dermatoscópicas obtenidas no resultaron homogéneas en sus parámetros de luz y
tonalidad. Por lo que se seleccionó la técnica de histogram matching como método de homogenización. En la
Figura 2 se aprecia en la parte superior la imagen de referencia de la clase, en el lado inferior izquierdo la
imagen original y en el lado inferior derecho la imagen con histogram matching aplicado.
Fig. 2. Proceso de homogenización a través de histrogram matching.
2.3 Filtro de Color
Una vez homogenizadas las imágenes se les aplica un filtro de color con base en las características y
tonalidades del carcinoma basocelular, el cual fue obtenido analizando 210 imágenes correspondientes a dicha
clase, segmentando manualmente mediante un óvalo la lesión de la piel, creando una máscara de la imagen
correspondiente a la lesión y otra correspondiente a la piel. Para cada una de estas máscaras de las 210 imágenes
229
se analizan todos los pixeles contenidos en éstas y se obtienen tras el análisis 21 indicadores estadísticos, 7 por
canal, los cuales son: media, mediana, desviación estándar, mínimo, percentil 25, percentil 75 y máximo.
Tras obtener 4410 índices estadísticos, 21 índices por las 210 imágenes, estos son promediados para
su análisis posterior. Obteniendo los 21 índices estadísticos promedio, se utiliza para el filtro de color los
índices mínimo y máximo para cada canal. De esta manera se estructura el filtro consistente en 3 tuplas de
valores máximos y mínimos, una tupla por canal.
Después de aplicar el filtro de color a las 450 imágenes, 9 por clase, se obtiene una imagen con los
pixeles que permanecieron tras el filtro con sus valores originales como se logra apreciar en la Figura 3 y los
pixeles que no permanecieron posterior al filtro sus valores en los 3 canales RGB es de cero.
Fig. 3. Imágenes de la clase del Carcinoma Basocelular posterior a la aplicación del filtro de color.
Cada imagen filtrada por clase se binariza usando métodos de umbralización adaptativa, como se
muestra en la Figura 4, además se combina con un filtro gaussiano para reducir la pérdida de información tras
la binarización de la imagen, teniendo al final de este proceso 50 imágenes binarizadas por clase representada
por ceros y unos.
230
𝑞
Fig. 4. Binarización de cada imagen por clase con umbral adaptativo.
A cada imagen binarizada por clase se le denomina con la letra Q y son subimágenes aleatorias de una
clase, donde Q es 30, por cada subimagen Q se tomaron P ventanas aleatorias, donde P es igual a 30, de 50 x
50 pixeles. Se describe el interior cada ventana aleatoria P con base en el descriptor de textura CCR, el cual su
dimensión es de 512 elementos.
Se describe cada ventana P de cada subimagen Q, teniendo 30 vectores característicos CCR por
ventana P, a estos vectores característicos se les denomina 𝐹𝛼, se promedian los 30 vectores 𝐹𝛼 para así obtener
𝑞 𝑞
un vector característico por subimagen Q, a este vector se le denominó Fq. como se muestra en la Ecuación 1.
𝐹 =
1
∑𝑃
𝐹𝛼 (1)
𝑞 𝑃 𝛼=1 𝑞
Una vez obtenido el vector característico 𝐹𝛼 se evalua la distancia de cada vector 𝐹𝛼 con respecto al
𝑞 𝑞
vector Fq mediante la sumatoria de las diferencias entre cada elemento de los vectores como se muestra en la
Ecuación 2, asimismo, se toma la desviación estándar de la muestra de todas las distancias del vector 𝐹𝛼 al
vector Fq como se muestra en la Ecuación 3.
< 𝑑 > =
1
∑
𝑃
𝑑(𝐹𝛼, 𝐹 ) (2)
𝑞 𝑃 𝛼=1 𝑞 𝑞
𝜎2 =
1
∑
𝑃
( 𝑑(𝐹𝛼, 𝐹 ) − < 𝑑 > )2 (3)
𝑞 𝑃 𝛼=1 𝑞 𝑞 𝑞
Posteriormente, una vez obtenidos los 30 vectores característicos, se procede a obtener el promedio
de distancias dq y la desviación estándar de la muestra de todas las distancias dq, como se muestra en las
Ecuaciones 4 y 5.
𝐷 =
1
∑𝑄 < 𝑑 > (4)
𝑄 𝑞=1 𝑞
𝜎 =
1
∑𝑄 (𝜎 ) (5)
𝑄 𝑞=1 𝑞
Asimismo, se procede a calcular el vector característico prototipo de toda la clase para cada una de las
9 clases, al que se le denomina F, este vector se calculó promediando los 30 vectores Fq como se muestra en la
Ecuación 6, asimismo se calcula la distancia de cada vector Fq respecto al vector F y la desviación estándar,
como se muestra en la Ecuación 7:
𝐷~ =
1
∑𝑄 𝑑(𝐹 , 𝐹) (6)
𝑄 𝑞=1 𝑞
𝜎~ =
1
∑𝑃 ( 𝑑(𝐹 , 𝐹) − 𝐷)2 (7)
𝑄 𝛼=1 𝑞
Finalmente, se obtienen 5 parámetros por clase los cuales se utilizarán en la clasificación, los cuales
son: F, 𝐷, 𝜎, 𝐷~, 𝜎~. Todo el análisis anteriormente descrito se empleo para la etapa de entrenamiento, a
continuación, se describe el procedimiento para la etapa de clasificación.
3. Resultados
Se utiliza un clasificador multiclase, de las 30 imágenes disponibles por clase, se seccionó el 70%, 15
imágenes aleatorias, para el set de entrenamiento y el 30 % restante, 15 imágenes, para el set de validación, las
imágenes entre clases son únicas e irrepetibles.
231
Para cada imágen de cada clase del set de validación, se analiza de la misma forma que cada imagen
del set de entrenamiento, se divide cada imagen en K ventanas, donde K es igual a P de 50 x 50 pixeles, se
obtiene un vector característico por ventana K, posteriormente se promedia cada uno de los 30 vectores FK para
obtener un vector prototipo de cada imagen del set de entrenamiento, a este vector se le denomina Ftest como
se muestra en la Ecuación 8, asimismo como la desviación estándar de los 30 vectores característicos FK
respecto al vector prototipo Ftest, como se muestra en la Ecuación 9, obteniendo solamente 2 parámetros para
su clasificación.
𝐹 =
1
∑𝐾
𝐹𝛼 (8)
𝑡𝑒𝑠𝑡 𝐾 𝛼=1
𝐷 =
1
∑𝐾
𝑑(𝐹𝛼, 𝐹 ) (9)
𝑡𝑒𝑠𝑡 𝐾 𝛼=1 𝑡𝑒𝑠𝑡
Una vez obtenidos los 2 parámetros por cada clase se procede a la clasificación de cada imagen. La
métrica de similitud empleada en este trabajo es la distancia manhattan entre el vector característico de cada
clase Ftest respecto a los 9 vectores prototipo F de cada clase. Se obtienen 9 valores escalares correspondientes
a las distancias mencionadas, se almacenan en un arreglo donde la posición de cada elemento del arreglo
corresponde a cada clase, para las posiciones 0 a 8 y para las clases de la 1 a la 9 respectivamente. Se selecciona
el valor menor dentro de este arreglo de distancias y la clase representada por la posición de esta menor distancia
dentro del arreglo, es la clase a la que es clasificada la imagen.
El proceso anterior se repite por cada una de las 15 imágenes por clase de validación, comparando
cada vector característico contra las 9 clases. Al finalizar este análisis a través de las 9 clases, se obtienen 9
vectores fila de 1 x 9, que conforman la matriz de confusión de la Tabla 1. Con la información vertida en la
matriz de confusión, se evalúa el clasificador a través de 3 estándares estadísticos: sensibilidad, precisión y
score F1 como se muestra en la Tabla 2.
Tabla 1. Matriz de confusión del clasificador propuesto.
232
Tabla 2. Evaluación del sistema clasificador en términos de sensibilidad, precisión y score F1.
Tras implementar el clasificador, el resultado reflejado en la matriz de confusión de la Tabla 1 es
altamente efectivo, se obtuvieron altos índices de sensibilidad en la clase Queratosis Actínica obteniendo una
sensibilidad de 1.00 y una precisión de 0.88.
4. Conclusiones
La homogenización de las condiciones de luz y tonalidad de las imágenes mediante histogram
matching de cada clase fue de gran ayuda para la descripción de la clase mediante su histograma, asimismo, la
binarización adaptativa permitió una mejor eficacia del descriptor CCR en cada ventana analizada. El filtro de
color, si bien fue ideado para el carcinoma basocelular, le favoreció considerablemente a la clase de la
queratosis actínica en el proceso de la clasificación y la distancia Manhattan como métrica de clasificación fue
una medida de proximidad certera del vector de validación contra el vector prototipo.
El sistema de clasificación desarrollado arrojó resultados óptimos en 3 de las 9 clases: queratosis
actínica, lesión vascular y dermatofibroma, dando como mejor resultado la clase de la queratosis actínica, por
lo que se le considera optimo para dicha clase.
Agradecimientos. Agradecemos a CONACYT por el apoyo en el desarrollo de este proyecto 784213 así como
al Centro Universitario del la Ciénega de la Universidad de Guadalajara.
5. Referencias
[1] (2021, May) IEEE Xplore. [Online].
https://ieeexplore.ieee.org/search/searchresult.jsp?newsearch=true&queryText=neural%20network%20skin%20cance
r [Consultado el: 2021-07-15.
[2] A. W. Setiawan, "Effect of Color Enhancement on Early Detection of Skin Cancer using Convolutional Neural
Network," 2020 IEEE International Conference on Informatics, IoT, and Enabling Technologies (ICIoT), 2020.
[3] K. Roy, S. S. Chaudhuri, S. Ghosh, S. K. Dutta, P. Chakraborty and R. Sarkar, "Skin Disease detection based on different
Segmentation Techniques," 2019 International Conference on Opto-Electronics and Applied Optics (Optronix), 2019.
[4] Germán Capdehourat, Andrés Corez, Anabella Bazzano, Rodrigo Alonso, Pablo Musé,” Toward a combined tool to
assist dermatologists in melanoma detection from dermoscopic images of pigmented skin lesions”, 2011, Pattern
Recognition Letters, Volume 32, Issue 16, 2011.
[5] J. T. Guillen-Bonilla, E. Kurmyshev and E. González, “Algorithm for training the minimum error one-class classifier
of images”,2008, Applied Optics, Optical Society of America, 2008.
233
[6] R. Maurya, Surya Kant Singh, A. K. Maurya and A. Kumar, "GLCM and Multi Class Support vector machine based
automated skin cancer classification," 2014 International Conference on Computing for Sustainable Global
Development (INDIACom), 2014.
[7] (2021, May) ISIC 2019 Challenge. [Online]. https://challenge2019.isic-archive.com/ [Consultado el: 2021-06-18]
234
XI. Investigación en
TIC
235
Limitations experimented by undergraduates in Stem careers, during the
production of scientific reports. Case study in Panamanian public
universities
Donna Angela Roper 1
and Javier Torres Salgado 2
1
Universidad de Panamá- Campus Ciudad de Panamá, El Cangrejo, Calle Octavio Méndez Pereira, Panamá,
República de Panamá
Donna.roper@up.ac.pa
2
Universidad Autónoma de Chiriquí, Ciudad de David, Chiriquí,
República de Panamá
Javier.torres@unachi.ac.pa
Abstract. The frequent lack of decision in undergraduate students, to pursue research as graduation project,
was our main motivation. Panamanian universities are compelled to manage three basic duties: education,
research, and innovation. One of the main problems is that undergraduates do not receive enough training
to develop the necessary skills that are needed to get involve in scientific research. capable of developing
their skills as scientific researchers. Identifying the limitations experimented by students during their
research methodology course, is our goal. So, to achieve it, we used a mixed approach [15], and non-
experimental, exploratory design with a highly descriptive component, modified from [16]. The use of a
framework helped the understanding. Some findings are related with the difficulty students confront when
delivering components. The strategy is to strengthened basic skills, such as reading comprehension,
writing, summarizing, and concluding, as well as research abilities such as, formulating questions,
experimental design, statistical analysis, for a start.
Keywords: Scientific report, undergraduates, STEM, Research methodology
1 General Review of the Study. State of the Art
1.1. Overview
Today the number of universities that are emerging to respond to the variable needs of a young population,
are increasing. This growth has been regulated by institutions that supervise the quality of these universities,
according to key indicators that are related with the compliance of three basic tasks: education, research, and
innovation. In Panama, the institution that carryout this role is the National Council for University Evaluation
and Accreditation of Panama (CONEAUPA) [1]. The commissioned individuals responsible to fullfill these
tasks are professors and students, that through a constant developement of academic activities, can manage to
accumulate the knowledge necessary for the improvement of institutional indicators regarding scientific
development with social and economic impact to therefore meet the goals through scientific research [2]. This
is sustained by many authors such as [3] [4] and many others referenced by [5] who claims that research must
be a transversal training in the undergraduate’s curriculum. On the other hand, [4] referenced by [6] and [7]
insists that students do not receive a training, good enough, to be capable of developing their skills as scientific
researchers.
The fact of integrating research methodology (RM) in the curriculum is suitable for students’ appropriation,
[8] recommends preferable in two semesters; even though [2], [9], and [10], sustain that the development of
investigative skills in the initial training of students, should not be limited by a subject, more so, should be
present in other training aspects of the curriculum. Seen this, the curriculum of STEM careers in Panamanian
public universities is reviewed in Table 1, and the average dedication is four (4) semester/hours, including
theory and practice, taken between the 6th and 8th semester.
236
Public Engineering Bachelor
University Theory Practice Theory Practice
U01 2 2 3 1
U02 2 2 3 1
U03 0 0 3 0
Total 2 2 3 1
Table 6. Average hours of theory and practice assigned to research methodology, according to academic degree,
in public universities
For this study we divide the paper in five sections: state of the art, problem to solve, description of the study,
and some conclusions.
1.2. State of the Art
Qualitative research is composed of several stages such as the statement of the problem, the theoretical
framework where information related to the approach, materials and methods used, data, data analysis and
finally the conclusions are exposed. Regarding the problem statement, [11] sustains that some authors of books
on RM, offer few arguments or are imprecise to answer the question What is a research problem?, so he suggests
a procedure o guide to orient researchers on the most recommended actions to follow, such as reviewing the
research context in specialized journals, identifying topics that are susceptible to research, considering the
theoretical concepts that are related to the topic and finally raising and formulating the research problem. He
also offers a flow chart of how all these components are related.
The research methodology courses (RMC) in STEM careers tend to present quantitative and qualitative
methodologies and depending on the model project to be considered in the class they are applied separately or
mixed. [12] points out that the perception that qualitative approach in researchers is rigorous, in contrast to the
quantitative one, and that, most of the time, professors tend to present the research project with the same
structure, research questions, tools and data collection techniques and data analysis strategies in an isolated
way, causing confusion in students of how both approaches are related.
According to [5] when formulating an hypothesis in the qualitative approach it requires that the researcher
to establish an existing problem in the same context and the importance as the object of a study. Different
obstacles arise, both from the point of view of the researcher and the university professor who teaches the
RMC, among which we can mention: the professor does not have enough research experience or lacks the
preparation enough to plan research projects, and on the side of researcher's, they lack knowledge of the
theoretical framework of a research, as well as certain concepts of hypothesis that is a tool for the improvement
in science.
Additionally, we have [13] who values the feelings that students have of their research work, which is
normally limited by the strictness of the professor-advisor and the emotions that arise in new researchers. He
proposes to administratively articulate the progress of a group of errors associated with the problem, the search
for information, the formulation of key questions such as who? why? what? the definition of general and
specific objectives, the wording of the justification, the theoretical framework, the methodology and the
findings. He is convinced that the appropriation of structured research strategies by researchers, can be
enhanced by the understanding and dominating these elements.
When thinking of how to affect the curriculum, [2] point out the need of a revision, to create a more coherent
and logical sequence of activities, in several subjects in order to develop in students a research profile fill with
the basic competencies needed to construct scientific research. It is considered that factors such as age, year
of study, belonging to a research group, among others, can control the attitude that must be achieved by the
students to overcome the challenge of becoming a proficient researcher.
On the other hand, advances in web technologies are focused on improving the quality of many services for
researchers. That is were [14] present a way to support researchers when collecting scientific documents for
the preparation of either manuscripts or research projects. From the formative perspective, it was evidenced
that web technologies can help accelerate the achievement of a group of good articles that can trigger the
beginning of a rich production of scientific research.
237
2. Problem to solve
In this paper we aim to identify the limitations experimented by students during a research methodology
course (RMC), as a prelude to the production of a good scientific report. What type of intervention is necessary
to improve the students’ responses? It is important to mention, that most of the reviewed articles, belonged to
experiences from health and education sciences.
Thinking about this study and the problem, we would like to know: Which are the most difficult and the
easiest tasks that undergraduates encounter when working on a research project? Is there any difference
between male and female? What is the quality of the deliveries of the students? How can students overcome
the scientific production?
3 Description of the study
To answer the research questions, we used a combined method that included surveys and observations
carried out in three stages using as sample students in public universities enrolled in courses related with
research methodology, years 2016-2020. The first and last stage analyzed the experiences before and after
participating in RMC. In the second stage, the corpus analyzed were different deliveries from students, selected
representatively from the five years.
3.1 Methodology
This study is based on mixed approach [15], and non-experimental, exploratory design with a highly
descriptive component, modified from [16]. In the first and the last stage we applied two different surveys,
that didn’t include personal information of the students. The preliminary survey with ten questions related to
knowledge, ethics, and research course expectations, was applied to a sample of 19 students (Male=14,
Female=5). The second stage was an evaluation using a Likert scale, of the difficulty presented by the students
in the deliverables of the RMC. Understand by difficulty when an effort to provide product doesn’t satisfy the
requirement. For this, we used a framework that included 22 skills to review, group by statistical, research and
basic skills and judging how each student delivered them. The sample used was a corpus of deliverables from
30 students of two public universities (Male=21, Female 9), representatively selected from the years 2017 to
2020, without any personal data to respect their privacy. Our analysis was adapted form [16], helped us
understand more about the dilemma.
The post survey of ten questions related to experience after the RMC, applied to a sample of 55 students
(Male=35, Female=20), whose perception was analyzed with a descriptive statistic.
3.2 Results and Discussion
In the first stage, we extracted from the survey variables such as where students search for information, the
usage, their interests, and expectation before a research course. The Table 2 presents the responses of the
students. Some findings regardless of the gender where that the search engine mainly use as a source of
information was Wikipedia (M=64%, F=80%). Both male and female students tend to read and interpret the
information from other authors, (M=64%, F=60%), the only thing that worries us is that a low percentage know
about citing the articles. The areas of interest were mainly technology (64%) and education (21%) in male
students, and in female students, environment (80%) was the spotlight.
The expectations mainly expressed by the sample studied, was to learn about research, rather than analyze,
evaluate, and solve problems, which we find valuable.
238
Fig 2. Research tasks students reported easy and difficult, after RMC
Criteria F M Total
Qty % Qty % Qty %
Search engine 5 100 14 100 19 100
Google Scholar 1 20% 3 21% 4 21%
Monografias.com 0 0% 2 14% 2 11%
Wikipedia 4 80% 9 64% 13 68%
Using author papers 5 100 14 100 19 100%
Through citations 1 20% 2 14% 3 16%
Copying information 0 0% 2 14% 2 11%
Reading and interpreting 3 60% 9 64% 12 63%
Did not reply 1 20% 1 7% 2 11%
Area of interest 5 100 14 100 19 100
Education 0 0% 3 21% 3 16%
Environment 4 80% 0 0% 4 21%
Health 0 0% 1 7% 1 5%
Others 0 0% 1 7% 1 5%
Technology 1 20% 9 64% 10 53%
Expectations 5 100 14 100 19 100
Analyze, evaluate, and
solve problems
0 0% 2 14% 2 11%
Learn more about research 5 100% 12 86% 17 89%
Table 7. Responses given by undergraduates of research courses in a
preliminary approach
In the second stage, Fig. 1 shows a representation of information from the framework, where the deliverables
were evaluated according to the level of difficulty symbolized by colors, according to a group of skills. The
highest percentages of students tagged as very difficult (red), was found in identifying study object and material
object (70%), using statistic software (60%) and using tables (50%). Additionally, analyzing the documents
(60%), extracting cue ideas (53%), interpreting (43%) and drafting results (50%), and writing reports (47%),
were found to be difficult skills (mustard). Some data from gender showed that female students found difficult
and very difficult task those performed with basic and research skills and on the other hand, the male students
showed limitations in the use of basic, statistical and research skills.
In last stage, we have responses from the undergraduates after the RMC, in Fig. 2 we found that 18 (33%)
considered that preparing and applying the questionary was an easy task, the same as designing a scientific
239
Fig. 3. Undergraduate’s self-appraisals after RMC, what skills had to improve
and reinforce.
Fig. 1. Percentage of students according to the certainty of their deliverables, by level of difficulty
detected in research skills
poster with (12) 22%. Also, the most difficult task was analyzing data and preparing conclusions difficult
(51%) which was corroborated by (Pierrakos, Zilberberg, & Anderson, 2010) and (Espinosa Fernández &
Villavicencio Aguilar., 2017) in their researches. Other responses from students that could be pointed out,
were their preference for teamwork, which is one of the skills of the millennium that promise success.
Another interesting result were the undergraduate’s self-appraisal. In Fig 3, we found that abilities that
mostly needed to be improved was the time dedicate to research (N=23, 41%) and on the other hand,
recognizing that they needed to strengthen skills such as: writing articles (N=16, 29%), data analyzing (N=12,
21%) and the structuring the scientific report (N=12, 21%)
240
The accomplishment in newly researchers is strongly related to the coexistence of student understanding
and professor’s advice, supported by [13], and should be reinforced.
4 Conclusions
Research is one of the most important activities in higher level institutions, and forms part of the education
ecosystem in a country, especially because of the opportunity it offers to develop scientific production that,
offers sustainability not only for the institution’s sake but also for the society, knowledge wise. The limitations
confronted by undergraduates, considered as dynamic players, are decelerating the flow to innovation. More
dedication is needed so that research can be considered not only as a task, but as a culture within the walls of
the institution. The students experience, regardless of the gender, must help them face challenges that have to
be approached with precision and force. This implies a radical change in the curriculum, the creation of research
programs from the first years [17], to allow students to have more time access the experimentation process. In
this study, we confirmed that basic competences must be strengthened, such as reading comprehension, writing,
summarizing, and drawing conclusions, as well as other research abilities such as: formulating questions,
experimental design, statistical analysis, and others traditionally related to science, health and even the
humanistic sciences; this could be achieved by implementing professors’ hands-on workshops, increasing the
number of contact hours and students’ dedication, per week. We insist that the methodology used in STEM
careers, must be refocused at once, so that new researchers feel motivated to form part of the scientific
community.
Future work includes curtailing the limitations experienced by undergraduates through the implementation
of indicators within the RMC, in an agile way, until the appropriation of the technique is achieved by professors,
students and administrators.
Acknowledgments. We would like to thank the reviewers beforehand, for their pertinent comments, and our
respect for the five generations of students that made us understand the importance of having them at our side,
during the journey of “learning about research and scientific production”.
References
[1] D. Ejecutivo, Ley 30, Panamá: Gaceta oficial 25595 de 25 de julio, 2006.
[2] C. Rojas Granada y S. Aguirre Cano, La formación investigativa en la educación superior en América
Latina y el Caribe: una aproximación a su estado del arte. Revista Eleuthera, vol. 12, pp. 197-222., 2015.
[3] V. E. Chavez, La formación de investigadores en la Universidad. ACADEMO Revista de Investigación
en Ciencias Sociales y Humanidades, vol. 5, nº 1., 2018.
[4] M. F. Álvarez Icaza, Modelo para el desarrollo de habilidades de investigación de alumnos de
licenciatura. Desarrollo de Habilidades de Investigación, 2011.
[5] C. E. Espinosa Fernández y C. E. Villavicencio Aguilar, Habilidades investigativas para trabajos de
graduación. ACADEMO Revista de Investigación en Ciencias Sociales y Humanidades, vol. 4, nº 1,
2017.
[6] H. M. Rojas Betancur, R. Méndez Villamizar y Á. Rodríguez Prada, Índice de actitud hacia la
investigación en estudiantes del nivel de pregrado. Entramado, vol. 8, nº 2, pp. 216-229, 2012.
[7] R. J. Ortega Carrasco, R. D. Veloso Toledo y O. S. Hansen, Percepción y actitudes hacia la investigación
científica. Revista de Investigación en Ciencias Sociales y Humanidades. ISSN 2414-8938, vol. 5, nº 2,
p. 101, 2018.
[8] J. K. Petrella y A. P. Jung, Undergraduate Research: Importance, Benefits, and Challenges.
International journal of exercise science, vol. 1, nº 3, pp. 91-95., 2008.
[9] M. Omar-Hechavarría y B. Capdevila-Leyva, El desarrollo de habilidades investigativas en la formación
inicial de los estudiantes. EduSol, vol. 13, nº 43, pp. 22-29, 2013.
[10] D. M. Rodríguez Martinez y D. L. Márquez Delgado, Las habilidades investigativas como eje
transversal de la formación para la investigación. Tendencias Pedagógicas, vol. 24, p. 347–360, 2014.
241
[11] A. Quintana Peña, Planteamiento del problema: errores de la lectura superficial de libros de texto de
metodología. Revista de investigación en psicología, vol. 11, nº 1, p. 239–253, 2008.
[12] C. Lankshear y M. Knobel, Problemas asociados con la metodología de la investigación cualitativa.
Perfiles educativos, vol. 22, nº 87, p. 6–27, 2000.
[13] J. S. Calle Piedrahita, Errores en la investigación: una mirada desde la administración. Revista
Iberoamericana de Producción Académica y Gestión Educativa, vol. 1, nº 2, 2014.
[14] A. Raamkumar Sesagiri y S. Foo, Multi-Method Evaluation in Scientific Paper Recommender Systems.
26th Conference on User Modeling, Adaptation and Personalization, 2018.
[15] R. Hernadez, C. Fernández Collado y M. d. P. Baptista Lucio, Metodología de la Investigación. México
D.F. McGraw-Hill Interamericana Editores, 2014.
[16] O. Pierrakos, A. Zilberberg y R. Anderson, Understanding Undergraduate Research Experiences
through the Lens of Problem-based Learning: Implications for Curriculum Translation.
Interdisciplinary Journal of Problem-Based Learning, vol. 4, nº 2, p. 35–62, 2010.
[17] J. Quintero-Corzo y F. I. Mopliona Ancízar Munévar y Munervar-Quintero, Semilleros de
investigación: una estrategia para la formación de investigadores. Educeduc, vol. 11, nº 1, pp. 31-42,
2008.
242
XII. Mejores
prácticas y
estándares
243
Estudio comparativo sobre el rendimiento de los lenguajes de
programación Java y Python en diferentes SBC
Jorge Aguilar Santiago1
, José Trinidad Guillen Bonilla1
, Juan Carlos Estrada Gutiérrez1
, María Guadalupe
González Novoa1
, Maricela Jiménez Rodríguez1
jorge.asantiago@alumnos.udg.mx, trinidad.guillen@academicos.udg.mx, jcarlos.estrada@cuci.udg.mx,
maria.gnovoa@academicos.udg.mx, maricela.jimenez@cuci.udg.mx.
1
Departamento de Ciencias Tecnológicas, Centro Universitario de la Cienéga, Universidad de Guadalajara,
Av. Universidad No. 1115, Col. LindaVista, C.P. 47810, Ocotlán, Jalisco, México.
Resumen: En esta investigación se presenta un análisis del rendimiento de los lenguajes de programación Java y Python,
utilizando diferentes computadoras de placa reducida mejor conocidas como SBC; para determinar bajo qué circunstancias
resulta más eficiente utilizar un lenguaje sobre el otro. Se realizaron pruebas de rendimiento utilizando algoritmos de
cifrado, descifrado y procesamiento de imágenes con SBCs, lo cual permite contar con una referencia del costo beneficio
de usar estos lenguajes y también del tipo de SBC que se requiere para esta labor, además se analiza si existe alguna
influencia del hardware en el rendimiento de los procesos y los lenguajes de programación.
Palabras claves: Python, Java, Lenguajes de programación, SBCs.
1. Introducción
Java y Python son dos de los lenguajes más utilizados en la actualidad, esto de acuerdo al TIOBE
programming community index y al PYPL PopularitY of programming Language, los cuales son indicadores
de la popularidad de los lenguajes de programación, y regularmente se ven estos dos lenguajes en el Top 5; sin
embargo, cabe aclarar que este índice no indica que un lenguaje sea mejor que otro, ya que cada uno ha sido
creado para suplir una necesidad específica. Paul Xavier et al. desarrollaron una investigación en la que median
el rendimiento de transferencia de imágenes en los lenguajes Java y Python utilizando una Raspberry pi, para
lo cual realizaron dos tipos de pruebas externas que evalúan el porcentaje usado de CPU, RAM, etc. e internas
donde analizan el tiempo de respuesta y de procesamiento [1]. También Zakaria Alomari et al., realizaron una
comparativa de seis lenguajes de programación (C++, PHP, C#, Java, Python y VB); ellos evaluaron el tiempo
de ejecución y uso de memoria en ámbitos como: conectividad a bases de datos, operaciones de escritura,
lectura, rendimiento de GUI y de los algoritmos: DFS, BFS y Kruskal [2]. Selina Khorirom et al. realizaron un
análisis comparativo de los lenguajes Python y Java para principiantes, donde indican las ventajas y desventajas
de cada uno; compararon líneas de código de un programa en ambos lenguajes, el tamaño en bytes que ocupan,
tiempos de ejecución etc.; e indican que un principiante en programación debe aprender de acuerdo con el
objetivo y no es recomendable cambiar entre lenguajes ya que esto puede provocar una pérdida de confianza,
también argumentan que los fundamentos de programación son similares, por lo tanto, si se domina un lenguaje
se pueden dominar otros [3]. Stephen J.Humer et al. presentaron un análisis comparativo de los lenguajes C++,
Java y Python, donde evaluaron las características básicas que definen a cada lenguaje, analizaron su
legibilidad, simplicidad, ortogonalidad, portabilidad, entorno de programación y costo de uso, así como los
tipos de datos, variables, palabras reservadas de cada lenguaje y soporte de abstracción; concluyeron que C++
es más para programadores avanzados que trabajen en proyectos con un cierto nivel de complejidad o proyectos
grandes, mientras que Java y Python atraen más en el mercado general [4]. E Insanudin 2019, publicaron un
artículo en el que compararon las líneas de código del algoritmo de ordenamiento burbuja, capacidad de los
archivos y la velocidad de acceso de los lenguajes Python y Java [5].
En el presente trabajo se muestra una comparación entre los lenguajes de programación Java y Python
en diferentes SBCs, se mide el rendimiento de los lenguajes y se comparan parámetros tales como: eficiencia,
tiempo de ejecución.
2. Metodología
244
Enseguida se utilizan diferentes modelos y marcas de SBCs para probar el rendimiento de los lenguajes
Python y Java; con la finalidad de tener un ambiente más controlado se usó el mismo sistema operativo Dietpi
7.2.3 en todos los equipos, el cual está basado en Debian y cuenta con distribuciones para cada uno de los
modelos de SBCs que se van a usar. Para ver el impacto en el rendimiento que el hardware puede tener en los
lenguajes de programación, también se utilizó la misma micro sd modelo ADATA SDXC 16GB V10 Clase 10
A1 en cada SBC, la cual tiene una velocidad de lectura de 100 MB/s. Todas las pruebas sobre las SBC se
realizaron sin carcasa y sin ningún sistema de enfriamiento externo, salvo los disipadores térmicos de aluminio.
Para realizar el análisis de rendimiento de CPU y velocidad se empleó el algoritmo criptográfico
propuesto por Jorge A., en la tesis “Detección, reconocimiento y cifrado facial selectivo, implementando
técnicas de criptografía y esteganografía basadas en caos”, el cual se utilizó debido a que el procesamiento de
imágenes es uno de los procesos que más recursos exigen a las computadoras, para este estudio se implementó
la técnica completa de cifrado y descifrado con una imagen de Lena de 128 x 128 [6].
2.1 Java
Fue diseñado en 1995 por James Gosling en la compañía Sun Microsystems; se desarrolló por la
necesidad de contar con un lenguaje orientado a objetos, multiplataforma y que pudiera brindar ciertas
facilidades a los programadores como la liberación de memoria, además Java lo que pretendía era compilar
solo una vez el código fuente utilizando el concepto de máquina virtual a la que llamaron JRE (Java Runtime
Environment) de modo que el programa se compila una sola vez creando un archivo bytecode que pueda leer
el JRE; Java es compilado e interpretado al mismo tiempo [7].
La versión instalada de Java en todas las SBCs fue la openjdk 11.0.11 20-04-2021, salvo en la
Raspberry Pi Zero W, ya que solo dispone de un núcleo, por lo tanto, no es capaz de correr la máquina virtual
de Java, debido a esto se necesitó instalar una versión anterior llamada openjdk 1.8.0_212.
2.2 Python
Guido Van Rossum lo creo y hasta el día de hoy ha tenido un gran crecimiento, porque es un lenguaje
fácil de aprender y también es sencillo leer su código fuente; lo cual ha llevado a que numerosas compañías
(Google, NASA, Facebok, Netflix, etc.) lo adopten. Además Python ha empezado a remplazar en el ámbito
educativo a otros lenguajes que se enseñan en las aulas como primer lenguaje de programación [8]. La versión
de Python que se instaló para realizar las pruebas en las SBCs es la 3.7.3.
2.3 Single board computer (SBC)
Se trata de una computadora completa con todos los componentes que requiere para su funcionamiento
como: CPU, RAM, GPU, tarjeta de sonido, de red, etc., los cuales están colocados en una sola placa de circuitos
impreso (PCB) [9]. La Tabla 1, menciona las características de las SBCs utilizadas en esta investigación.
Tabla 1. Comparativa de SBCs [10][11].
SBCs CPU RAM Sistema operativo Tarjeta gráfica Red
Raspberry
pi zero w
1GHz single-core
BCM2835 ARM11
512MB Linux Arm Videocore IV 802.11n wireless
Raspberry
pi 3B
1.2GHz 64-bit quad-core
Arm Cortex-A53
1GB Android, Linux Arm,
Windows 10 Iot
Videocore IV 802.11n wireless
Gigabit Ethernet
Raspberry
pi 3B+
1.4GHz 64-bit quad-core
Arm Cortex-A53
1GB Android, Linux Arm,
Windows 10 Iot
VideoCore IV 802.11ac/n wireless
Gigabit Ethernet
Raspberry
pi 4
1.5GHz 64-bit quad-core
Arm Cortex-A72
4GB Android, Linux Arm,
Windows 10 Iot
VideoCore VI 802.11ac/n wireless
Gigabit Ethernet
Lattepanda
alpha
1.1-3.4Ghz Dual-Core,
cuatro hilos, Intel m3-8100y
8GB Linux, Windows Intel HD Graphics 615 Wifi 802.11 AC, 2.4G
y 5G, Gigabit Ethernet
245
3. Resultados
Javier medina en el libro Pruebas de Rendimiento Tic, describe dos tipos de pruebas externas e internas.
Las externas determinan cuanto le toma al sistema operativo responder una petición, latencia de red, tiempo de
procesamiento, etc. la interna es la información obtenida del propio proceso, por ejemplo uso de memoria,
disco, etc. [12].
3.1 Pruebas externas
Para efectuar estas pruebas se utilizó la librería llamada Psutil, la cual dispone de varias herramientas para
el análisis de diferentes componentes de una computadora, por ejemplo: CPU, RAM, SWAP, Discos duros,
etc.
3.1.1 Uso de CPU
Psutil dispone del comando psutil.cpu_percent(interval=None, percpu=True), el cual se ejecutó en un
programa aparte del proceso que fue analizado, al ser un proceso simple tiene un impacto muy bajo en el uso
de CPU. El comando tiene dos parámetros: interval y percpu. El primero cuando está en el intervalo 0.0 o None
compara los tiempos del CPU del sistema desde la última llamada, si es > 0.0 devuelve el tiempo de CPU antes
y después del intervalo. El parámetro percpu cuando es True muestra el uso de los CPU por separado de lo
contario lo mostraría como un solo valor.
Las Figuras 1 (a-b) muestran el resultado en Python y Java que arroja la librería psutil al momento de
cifrar y descifrar la imagen de Lena, referente al uso de cada CPU en una Raspberry pi 4B con el formato [0.0,
0.0, 0.0, 0.0]. Cada valor separado por una coma corresponde al porcentaje de uso de cada CPU en un segundo
determinado, el cual puede ir desde 0.0% hasta 100.0%, estos valores fueron promediados de acuerdo al número
total de CPU y posteriormente se promediaron los resultados individuales por segundo, obteniendo así el uso
total de CPU durante todo el proceso.
Fig 1. Porcentaje de uso de CPU de Python (a) y Java (b) en una Raspberry pi 4B.
Como se puede observar en la Fig. 1 (a), Python solo emplea un único núcleo en el proceso de cifrado
y descifrado siendo este el núcleo 3 [cpu1, cpu2, cpu3, cpu4] con un uso cercano o igual al 100%, en dicho
núcleo, pero de un 22.205% globalmente. En cambio, Java distribuye mejor el uso de los recursos del CPU
[cpu1, cpu2, cpu3, cp4] sin llegar al 100% de uso en cada núcleo, pero con un uso global de un 47.6125% como
puede observarse en la Fig. 1 (b), esto se debe a que en Python no manejan hilos por defecto a diferencia de
Java.
La Figura 2, muestra el promedio de 10 muestras para cada SBC del porcentaje de uso de CPU por
segundo de Python y Java, utilizando el proceso que se describió en las Figuras 1(a-b). Como se puede observar
el hardware de la SBC influye en el rendimiento del lenguaje de programación, Python presenta mejor
rendimiento que Java en equipos de un solo núcleo, como lo es la Raspberry Pi Zero W, pero en equipos con
múltiples núcleos Java exhibe un rendimiento mayor al distribuir con mejor eficiencia la carga de los procesos
y por lo tanto termina antes dicho proceso.
246
120
100
80
60
40
20
0
RPI Zero W RPI 3B RPI 3B+ RPI 4 LattePanda Alpha
Python 98.93699 24.99245 24.11424 23.65511 15.28125
Java 88.69143 49.96938 44.3525 39.02396 38.3475
Dispositivos
Fig 2. Porcentaje de uso de cpu de diferentes SBCs.
3.2 Pruebas internas
Se utilizaron los métodos propios con los que cuentan los lenguajes Java y Python para calcular el tiempo
de ejecución de los programas. En Java se empleó el método System.nanoTime() aplicándolo al inicio de cada
método de cifrado-descifrado y al final del proceso. Para Pyhon se empleó el método time(), al igual que con
Java se calculó al inicio y al final, se restó y el resultado se presentó en segundos.
3.2.1 Tiempos de ejecución
Pese a que en la mayoría de las SBC Java demostró una velocidad superior a Python, este último va
reduciendo cada vez su tiempo conforme el hardware es más potente, y en el caso de la Lattepanda llego a
superarlo, teniendo Java un incremento en los tiempos respecto a la Raspberry pi 4 y Python una reducción.
Esto puede deberse quizás a que la Lattepanda solo dispone de dos núcleos físicos y dos lógicos, o a la
arquitectura de los procesadores, ya que Raspberry trabaja con RISC ARM de 64 bits y Lattepanda trabajan
con arquitectura CISC Intel de 64 bits, entre otros posibles factores.
La Figura 3 muestra los resultados de los tiempos en segundos para cifrar y descifrar una imagen
completa de Lena de 128 x 128.
Fig 3. Tiempo en segundos, para cifrar la imagen de Lena 128 x 128 en distintas
10
9
8
7
6
5
4
3
2
1
0
RPI Zero W RPI 3B
Python 9.298205 2.997902
Java 0.613773 0.25251
RPI 3B+
2.553881
0.223082
Dispositivos
RPI 4
1.138366
0.107211
LattePanda
0.210788472
0.322759
%Uso
de
CPU
Tiempo
en
segundos
247
SBCs.
3.2.2 Análisis de líneas de código y peso de los archivos.
Se hizo un análisis de las líneas de código necesarias para programas sencillos, tales como:
ordenamiento, búsqueda y recursividad, así como un análisis del tamaño que ocupan los archivos generados
(.py, .jar). Para el conteo no se tomaron en cuenta las líneas comentadas ni vacías, únicamente se consideran
las que tienen código; también se contemplan las llaves que abren y cierran, ya que cumplen con una parte
importante, aunque puede ser una desventaja para Java. Por último, se agregó a Python un Main el cual es
opcional en este lenguaje, pero en Java es obligatorio [5][13][14][15].
La Tabla 2 muestra una comparativa del código escrito en Java y Python, considerando el número de
líneas y el tamaño de los archivos utilizados en los algoritmos de ordenamiento burbuja, calcular el factorial
de un número, búsqueda secuencial y calcular los primeros 10 números de la serie Fibonacci.
Tabla 2. Líneas de código requeridas para cada método y su peso en bytes [13][14][15].
Algoritmo Lenguaje Líneas de código Tamaño del archivo (bytes)
Burbuja Python 12 455 bytes
Java 23 1,838 bytes
Factorial Python 8 277 bytes
Java 14 1,376 bytes
Búsqueda
secuencial
Python 11 430 bytes
Java 18 1,947 bytes
Fibonacci Python 8 266 bytes
Java 15 1625 bytes
4. Conclusiones
Al utilizar las diferentes SBCs con el mismo sistema operativo Dietpi, el análisis fue posible gracias
a la estandarización, por lo tanto, es más exacto. Se pudo demostrar que el hardware tiene un impacto en el
rendimiento de los lenguajes ya que mejora conforme es más potente. La mayoría de las SBC disponen de un
CPU con 4 núcleos ya sean físicos o lógicos, como el caso de la Lattepanda Alpha que dispone de 2 núcleos
físicos y 2 lógicos; salvo el caso de Pi Zero W con un solo núcleo.
A manera de reflexión en base a la experiencia adquirida con distintos lenguajes, consideramos que lo
que ha hecho tan populares a Java y Python fue que estos introdujeron una serie de “comodidades” para los
programadores, que si bien, no son del todo indispensables, marcaron un antes y un después para los
programadores, ya que facilitó su trabajo, lo cual consideramos que debe ser un punto de observación para
todos aquellos interesados en el desarrollo de algún lenguaje de programación, tanto los existentes como los
nuevos.
Las pruebas mostraron que Java tiene un mayor rendimiento en cuanto al porcentaje de uso de CPU y
velocidad respecto a Python, salvo algunas excepciones como son la Raspberry Pi Zero W y la Lattepanda; sin
embargo, Python resulta más simple de leer y de plasmar conceptos o ideas y llevarlos a funcionar, no obstante,
los conceptos lógicos de la programación de ambos lenguajes son muy similares, puesto que la lógica de
programación es algo que comparten todos los lenguajes.
Este trabajo se desarrolló para que los programadores determinen que lenguaje de programación es más
conveniente utilizar, dependiendo del tipo de SBC con el que van a trabajar, para que puedan aprovechar al
máximo los recursos de hardware o adquieran el dispositivo más óptimo.
5. Referencias
[1] Paul Xavier Paguay Soxo, Rosman José Paucar Córdova, and Angel Patricio Flores Orozco, "Evaluación del
rendimiento de la transferencia de imágenes en aplicaciones IoT entre los lenguajes de programación Java y
248
Python," Ciencia digital, vol. 3, no. 3.4, pp. 327-341, Sep. 2019.
[2] Zakaria Alomari, Oualid El Halimi, Kaushik Sivaprasad, and Chitrang Pandit, "Comparative studies of six
programming languages," 2015.
[3] Selina Khoirom, Moirangthem Sonia, Borishphia Laikhuram, Jaeson Laishram, and Tekcham Davidson Singh,
"Comparative Analysis of Python and Java for Beginners," International Research Journal of Engineering and
Technology (IRJET), vol. 07, no. 08, pp. 4384-4407, Feb. 2020.
[4] Stephen J. Humer and Elvis C. Foster, "A comparative analysis of the c++, java, and python languages," Computer
science and engineering, Dec. 2014.
[5] E Insanudin, "Implementation of python source code comparison results with java using bubble sort method,"
vol. 1280, no. 3, pp. 1-9, 2019.
[6] Jorge Aguilar Santiago, Maricela Jiménez Rodríguez, and Octavio Flores Siordia, Detección, reconocimieto y
cifrado facial selectivo, implementando técnicas de criptografía y esteganografía basadas en caos, 2020, Tesis
para obtener el grado de Maestro en Ciencias.
[7] Ismael López Quintero, Curso avanzado de Java, 1st ed. Tarragona, España: Alfaomega, 2017.
[8] Arnaldo Pérez Castaño, Python fácil, 1st ed. Barcelona, España: Alfaomega, 2016.
[9] Aaron Newcomb, Make linux for makers understanding the operating system that runs raspberry pi and other
maker SBCs, 1st ed. San Francisco, USA: Maker Media, 2017.
[10] Raspberry Pi. [Online]. https://www.raspberrypi.org/products/ [Consultado el: 2021-06-25]
[11] Lattepanda. [Online]. http://www.lattepanda.com/products [Consultado el: 2021-06-25]
[12] Javier Medina, Pruebas de rendimiento TIC. 07, 2014.
[13] (2021, May) Wikipedia. [Online]. https://es.wikipedia.org/wiki/Ordenamiento_de_burbuja [Consultado el: 2021-
06-18]
[14] (2021, May) Wikipedia. [Online]. https://es.wikipedia.org/wiki/Recursi%C3%B3n [Consultado el: 2021-06-18]
[15] (2021, May) Wikipedia. [Online]. https://es.wikipedia.org/wiki/Algoritmo_de_b%C3%BAsqueda [Consultado
el: 2021-06-18]
249
Proyecto tiempo-acción: modelo de desarrollo de software, PETAL
Patricia Martínez Moreno1
José Antonio Vergara Camacho2
José Eduardo Vado Robles3
1 Universidad Veracruzana. Facultad de Contaduría y Administración Campus Coatzacoalcos. Profesor de Tiempo Completo de la Licenciatura en Ingeniería de
Software. pmartinez@uv.mx
2 Universidad Veracruzana. Facultad de Contaduría y Administración. Campus Coatzacoalcos. Profesor de Tiempo Completo de la Licenciatura en Ingeniería de
Software. jvergara@uv.mx
3 Universidad Veracruzana. Facultad de Contaduría y Administración. Campus Coatzacoalcos. Matriculado en la Licenciatura en Ingeniería de Software.
zs19017397@estudiantes.uv.mx
Abstract. This document is made up from the study that, according to a journal of research on the practice of
software processes and a review of the literature of the last 15 years, the first step of the project is to unify a
software development proposal called PETAL that includes common elements, such as: work team,
relationship with clients, development time, pivoting, iterations, technical debt, tests with analysts, tests with
customers, maintenance, refinement and quality assurance. Being an informed model with necessary bases to
find a middle point in agile methodologies and traditional methodologies. From the agile methodologies, fast
processes, and constant elimination of work in search of quality in the final product are taken up, and from the
traditional ones, work based on determined and experienced life cycles for greater efficiency in the field of
quality. Thus, the research methodology used was qualitative in approach with non-experimental design of
descriptive and explanatory scope. As a result, the proposal of the PETAL model is arrived at by describing
the interaction with its elements. Finally, it is hoped that, at a later stage, the project will be piloted in the
Coordination of Software Development Projects of the same educational institution.
Keywords: process, best practices, software, quality, models.
1 Introducción
Los modelos o metodología en el desarrollo de software son utilizados para buscar la calidad, siendo de utilidad
en el desarrollo organizado, eficiente de tiempos y procesos necesarios para obtener un desarrollo sin problemas
de tiempos de entrega.
Este documento muestra propuesta de un modelo informado con las bases necesarias para encontrar un punto
medio en las metodologías ágiles y las metodologías tradicionales, en donde las metodologías ágiles aplican
procesos rápidos y eliminación constante de trabajo en busca de la calidad, y por otro lado, las tradicionales,
siendo trabajos con ciclos de vida determinados y experimentados para su mayor eficiencia en el ámbito de la
calidad.
Los modelos se complementan con procesos de desarrollo, los cuales brindan formas eficientes del manejo de
equipo de trabajo, siendo las formas útiles para la administración a nivel de recursos humanos, siendo
importante para el trabajo en equipo.
Lo principal en la creación de este modelo es su enfoque de optimización en la etapa de pruebas y
mantenimiento del software, puntos que se consideran importantes para el aseguramiento de la calidad de un
producto de software, así como se reconoce su importancia se reconoce la posibilidad de elaborar soluciones
viables, por esto mismo es necesario crear una diferenciación de errores y enfocarse sólo a los más importantes.
2 Elementos del proceso de software
Este proyecto se encarga de mantener los cambios (acciones) y sus tiempos de entrega de forma eficiente en
un modelo cíclico el cual esta visualizado para tener una mayor sensación a la retroalimentación que se tiene a
los clientes y a los analistas del proyecto.
250
La creación de PETAL consiste en la esquematización de principios con buenas prácticas en el desarrollo del
software diseñados para su mayor eficiencia en la elaboración de cambios al producto, así como su eficiencia
en sus diseños.
Este modelo está inspirado en las etapas más simples, de un ciclo de vida en el desarrollo del software, usando
medios y técnicas de modelos ágiles, atendiendo la calidad y al mismo tiempo de reacción a problemas con
esta.
A continuación, se menciona ciertos elementos invisibles por otros autores, pero con importancia en el proceso
de desarrollo de software que considero deben ser expuestos.
Equipos de trabajo
El equipo de trabajo fundamental en aplicar este proceso son 2 analistas 4 programadores y mínimo un cliente,
los analistas quienes se encargan de las etapas de análisis y diseño, los programadores atienden la programación
y la creación de las pruebas.
El equipo sigue las bases y supervisión de la metodología Team Software Process (TSP) proporcionando un
marco de trabajo de procesos definidos que está diseñado para dar apoyo a equipos de gerentes e ingenieros a
organizar y producir proyectos de software de gran escala, de tamaños mayores con miles de líneas de código
(Humphrey W, 1999). El objetivo del TSP es mejorar los niveles de calidad y productividad de un proyecto de
desarrollo de software de un equipo, con el fin de ayudarlos a alcanzar acuerdos de costos y tiempos en el
mismo desarrollo.
Relaciones con clientes
La relación de los clientes es cercana y constante, puesto que forman parte activa para la salida y la
retroalimentación del producto y son parte del equipo de trabajo de forma activa. En el caso de los clientes
finales son los que brindan información necesaria al manipular el sistema proporcionando elementos que
abonen hacia la calidad del producto del software y así se generen ligeros cambios para el funcionamiento
amigable con los usuarios.
Tiempo de desarrollo
Los tiempos en este modelo son importantes y se mide constantemente para obtener la eficiencia del trabajo en
equipo, utilizando el TSP, donde los tiempos estimados puedan tener mayor variación entre proyectos. Cabe
señalar, que en este documento se muestran los tiempos que se consideran para cada etapa del desarrollo al
final.
Si se toman en cuenta los tiempos de los ciclos y sus enfoques de eficiencia se tendría que el tiempo aproximado
para la generación de proyectos medianos con este modelo es de 7 meses con un mes exclusivo para el
mantenimiento post salida oficial del producto.
Pivoteo
El pivote muestra el cómo se adaptan a los cambios de estrategias para el cambio y la adaptabilidad, esto se
logra con la etapa de refinamiento, siendo esta la forma de mostrar los enfoques requeridos para la calidad, y
administrarlos dependiendo de su importancia, creando un cambio de estrategia a las funciones creadas
anteriormente.
Este pivote es necesario ser retroalimentado por los clientes, puesto que son las personas que pueden cambiar
los puntos de vista en el proceso de desarrollo y que pueden mostrar mejores opciones en la implementación
de los requisitos iniciales.
251
Iteraciones
Las iteraciones se presentan cada vez que se encuentre cualquier problema o avance, siendo redirigido al
análisis o al diseño que son los puntos nodales para trabajar con calidad y donde caen la mayoría de los
problemas que se presentan en etapas futuras.
Cada iteración ocupa como base la iteración anterior, realizando las funciones como un proceso de cascada, sin
embargo, en la mejora de implementar la calidad se realizan las iteraciones con estilos de procesos rápidos,
siendo este un punto importante para implementar las buenas prácticas y la velocidad del modelo PETAL.
Deuda técnica
PETAL lidia con la deuda técnica con los casos de uso que se realizan en la etapa de requerimientos, así como
en las reuniones semanales realizando acciones eficientes para la reducción de complejidad de los problemas
que se encuentren, se especifica eso en la etapa de análisis.
Con base en lo anterior, se dividen y simplifican los procesos en el refinamiento, punto importante para bajar
la complejidad que pueda llegar a alcanzar el producto en etapas finales de su ciclo de vida.
3 Metodología
A partir de ir tomando notas de la literatura de los últimos 15 años sobre las diversas metodologías ya sean
clásicas o ágiles, donde se analiza cada una de las etapas del proceso de desarrollo de software y se identifican
elementos nodales que puedan llevar con éxito un producto de desarrollo, la metodología de investigación
aplicada fue de enfoque cualitativo toda vez que partir de los hechos, estos mismos se interpretan para llegar
esta propuesta. El diseño aplicado fue no experimental con alcance descriptivo y explicativo. Se espera que en
una siguiente etapa del proyecto de investigación se aplique de manera experimental en la Coordinación de
Proyectos de Desarrollo de Software de la misma institución educativa.
4 Ciclo de vida PETAL
El ciclo PETAL está basado en la naturaleza de todo desarrollo de software, incremental. Las etapas se basan
en el proceso incremental donde se divide, la etapa de pruebas a pruebas dobles dependiendo de quienes
realicen las mismas, así como la suma de una etapa adicional, la cual crea un refinamiento del producto
alcanzable después de las interacciones con los usuarios finales.
El ciclo de vida PETAL, está basado en la velocidad del producto como en la adaptabilidad para implementar
la calidad con base a las respuestas de los clientes.
Uno de los puntos principales de este modelo es la programación en pares lo cual requiere que dos
programadores participen en un esfuerzo combinado de desarrollo en un sitio de trabajo. Cada miembro realiza
una acción que el otro no está haciendo actualmente, dando como resultado un mayor enfoque al flujo de trabajo
y a las pocas interrupciones en la etapa de codificación
Requerimientos
Las relaciones con los clientes serán en el inicio con los requerimientos y al final en la etapa de pruebas. Se
testea la calidad del software, viendo los distintos puntos de vista, mejoras del proceso y flexibilidad mayor en
los cambios.
Los requerimientos se llevan a cabo desde los casos de uso, se entrevista a los clientes directos y después de la
entrevista se crean los casos de uso que se requieran, estos casos de uso serán diseñados para que cumplan con
las pruebas necesarias para satisfacer los requerimientos requeridos (Unified Modeling Language) llamados
criterios de aceptación. Este proceso puede durar 1 – 3 días, en la entrevista y en la forma de elaborar los casos
252
de uso necesarios.
Análisis
Los equipos de trabajo se administran en el análisis con la finalidad de brindar ideas claras y formas de arreglar
distintos problemas de distintas personas involucradas en el proyecto, reasignando los trabajos a realizar,
haciendo que la mayoría de los participantes en el proyecto identifique el funcionamiento interno del sistema,
estos chequeos y posibles rotaciones se tendrían que hacer semanalmente para su mejor eficacia.
En este punto también se analiza el diseño del producto con base en los casos de uso que se realizaron en la
etapa anterior, diseño sujeto a cambio constantemente, punto donde el enfoque puede ser adaptado con mayor
velocidad.
El análisis se basa en la metodología Proceso de Software en Equipo (TSP), y sigue las anotaciones de cada
repetición y el plan para su eficiencia dentro del entorno de trabajo (Humphrey W, 1999). Este proceso puede
durar 1 – 2 días, siendo importante el análisis de grupo y los tiempos.
Diseño
En este punto se diseña el diagrama de clases, diagrama de estructura estática que describe al sistema mostrando
sus clases, atributos, operaciones, y las relaciones entre los objetos. (Unified Modeling Language).
También se realiza el prototipo de la interfaz del usuario a cargo del analista el cual brinda se diseña bajo la
usabilidad y accesibilidad. Esta etapa junto con la de análisis son las flexibles del modelo PETAL, etapas que
requieren cambios y ajustes de acuerdo con la experiencia de los clientes y a las formas de organizar y mostrar
las funciones que requiere el usuario. Este proceso puede durar 2-3 días.
Codificación
En la etapa de codificación se desarrollan las funciones requeridas por el cliente, este proceso se realiza
aplicando la programación en pares. Se necesitarán mínimo 2 pares para el trabajo de múltiples funciones a la
par (Beck K, 1999). Esta etapa se cicla e interactúa directamente con la etapa del diseño con la finalidad de
programar sistemas intuitivos, además de que sean identificados los errores para su corrección. Este proceso
puede durar 2-3 días.
Pruebas con analistas
Los analistas son los que prueban el software, y estos definen si es presentable a un público externo, teniendo
en cuenta los casos de uso iniciales junto con los diseños que se realizados, si en este punto no se cumplen con
los requerimientos iniciales. En esta etapa se vuelve a realizar el análisis en esa sección del proyecto o llegar a
su eliminación una vez de pasar por el análisis más de 2 veces y se construirá desde un punto anterior. Este
proceso puede durar 1-2 días y ser parte de las reuniones semanales en la etapa de análisis. Al llevar a cabo
esta etapa se aplican las buenas prácticas.
Pruebas con clientes
Las pruebas con los clientes se realizan después de las pruebas con los analistas, lo que da el control al
interactuar con los usuarios finales, esto busca fortalecer la calidad del software rápido y eficaz, estas pruebas
pueden realizar cambios reactivos dependiendo de las necesidades y acciones de los clientes. Estas pruebas
pueden resultar positivas con pequeños cambios, los cuales deberán refinarse, y resultaría en la última
repetición de este proceso. Este proceso puede durar 1-2 días.
Mantenimiento
253
El mantenimiento de un producto terminado en este modelo se realiza hasta un mes después de la terminación
del proyecto, esto para evitar caer en múltiples peticiones de agregar funcionalidades adicionales, así como
proyectos fallidos que se ciclarían sin sentido, siendo necesario iniciar desde 0 el proyecto.
En el mantenimiento se realizan correcciones de errores después del lanzamiento oficial en caso de encontrar
errores, actualizaciones del producto o el refinamiento del producto. Este proceso puede durar 3-5 días.
5 Resultado
El resultado de todo este análisis, revisión y documentación antes descritas, culminan y se resume es el modelo
PETAL (Ver figura 1). El modelo, muestra el comportamiento en la generación de problemas en el desarrollo
del software, los analiza y los intenta resolver lo más rápido posible, ocupando sus ciclos en etapas propensas
a desarrollar y/o encontrar errores y código sin calidad.
Figura 1. Modelo PETAL.
6 Discusión
Se ha observado que el refinamiento y la calidad son elementos preponderantes dentro de esta propuesta de
ciclo de vida, el cual es necesario discutir y aclarar al respecto.
En el proceso de refinamiento es necesario saber los problemas y recomendaciones de los usuarios que
participaron en la etapa pruebas con clientes, así como aceptación o no al usar el producto, esto determina el
proceso de reanalizar para la mejor experiencia del usuario final. Este refinamiento incluye los procesos de
interfaz de usuario (frontend) hasta la programación del producto (backend).
Los refinamientos serán divididos en principales y secundarios, los principales son las experiencias negativas
que no cumplan con las expectativas de los usuarios y son refinamientos de vital importancia. Los secundarios
son las experiencias que se pueden mejorar, sin romper la funcionalidad a las que están contribuyendo, estos
refinamientos suelen resolverse rápidamente, por esto mismo su prioridad es menor y se realizan si se tiene el
tiempo suficiente para su elaboración. Este proceso puede durar 1-2 días.
Esto es uno de los seguramientos de calidad, siendo la propuesta inicial para la creación del modelo PETAL,
pero se pueden ocupar los métodos anterior mente mencionados buscando el mayor potencial de calidad, se
incorporaron distintas metodologías y especificaciones para contribuir con la calidad esperada.
La calidad se aplica cuando se integra el modelo TSP y en la eficiencia de trabajo en equipo, también se observa
la aplicación de las buenas prácticas en las decisiones de los analistas dentro de la etapa de análisis. Además,
los artefactos generados como los casos de uso después de las entrevistas, y la generación de pruebas dan como
resultado la aceptación a los requerimientos iniciales. Siguiendo con las etapas en el aseguramiento de la
calidad se propone como estrategia la programación en pares, siendo importante para el trabajo en equipo y la
eficiencia de la producción del proyecto.
254
Con relación al tiempo-acción se dividieron las pruebas de analistas y usuarios lo que genera eficiencia en la
corrección de errores y aumento de calidad. La etapa de refinamiento que busca la calidad final del producto
se prioriza lo importante a trabajar instantáneamente o en su defecto aquello que requiere ser eliminado y/o
reconstruido para el seguimiento de la calidad; esta etapa es exclusiva para la reacción de contenido que no
cumpla con las expectativas de los usuarios ya sea por un erróneo diseño o mala implementación.
7 Conclusión
El modelo de desarrollo PETAL con su visón de llegar a un punto medio entre los procesos en donde se
generan múltiples artefactos en el aseguramiento de la calidad, a lo que cabe señalar que no se debe de ver en
su totalidad como un modelo de desarrollo rápido, puesto que cuentan con ciertas estrategias de los modelos
clásicos, reduciendo ligeramente su eficiencia en la velocidad.
Es un modelo que para especializarse en implementar las buenas prácticas fue necesario incorporar estrategias
de trabajos que se muestran a lo largo del mismo, creando pasos extra, pero eficientes logrando obtener la
calidad esperada.
Cabe mencionar que, el aplicar una metodología paso a paso, detalladamente como se indica en la teoría suele
no existir, y muchas veces no se lleva a cabo por razones que se derivan en una mala gestión administrativa,
en riesgos no contemplados y demás imponderables.
Finalmente, se espera que en una siguiente etapa del proyecto, sea aplicado de manera experimental en la
Coordinación de Proyectos de Desarrollo de Software de la misma institución educativa.
8 Referencias
[1] Alqahtani, J. (2019). https://iarjset.com/wp-content/uploads/2019/12/IARJSET.2019.61204.pdf. IARJSET, 6(12), 14–16.
https://doi.org/10.17148/iarjset.2019.61204
[2] Pressman. (2021). Ingenieria De Software (7.a ed.). MCGRAW HILL EDDUCATION.
[3] Beck, K. (1999). Extreme Programming Explained: Embrace Change (US ed). Addison-Wesley Pub (Sd).
[4] Humphrey, W. S. (1999). Introduction to the Team Software Process (1.a ed.). Addison-Wesley Professional.
[5] Linares Pons, N., Piñero Pérez, Y., Rodríguez Stiven, E., & Pérez Quintero, L. (2014). Diseño de un modelo de Gestión del
Conocimiento para mejorar el desarrollo de equipos de proyectos informáticos. Revista española de Documentación Científica,
37(2), e044. https://doi.org/10.3989/redc.2014.2.1036.
255
XIII. TIC y
responsabilidad
social
256
Diseño de un sistema de monitoreo para senderos seguros en áreas
naturales protegidas y su relación ante la pandemia COVID 19.
Vega Gómez Carlos Jesahel 1
Barusta Sanchez Ángel Eduardo1
Díaz Torres Viridiana Guadalupe 1
Coronado Mendoza Alberto1
Camas Náfate Mónica Patricia 1
1
Centro Universitario de Tonalá, Universidad de Guadalajara, Av. Nuevo Periférico #555. CP
45425, Tonalá, Jalisco, México carlos.vega@cutonala.udg.mx, angel.barusta.95@gmail.com,
viri.diaz.torres.97@gmail.com, alberto.coronado@academicos.udg.mx,
monica.camas9831@academicos.udg.mx
Resumen. La obtención de datos y su análisis es de suma importancia para cualquier investigación, pues
con ellos podemos responder a preguntas o anticiparnos a situaciones que ameriten una mejora sustancial
a problemáticas planteadas, es por ello que el desarrollo de un sistema electrónico de monitoreo de
senderos, nos permite generar, identificar datos y tomar decisiones sobre posibles implementaciones para
mejorar la seguridad de los usuarios en colonias que se encuentran en condiciones de vulnerabilidad como
es el caso de Lomas del Centinela en Zapopan, pues los vecinos utilizan senderos dentro del Bosque del
Centinela para desplazarse y se ven afectados por robos y violencia, sin embargo, ante la situación global
por la pandemia del COVID 19 el uso de espacios abiertos ha ido en aumento y dicho bosque también es
una zona de esparcimiento por tanto el conocer los hábitos, horarios y afluencia de personas favorece la
toma de decisiones.
Palabras clave: Senderos seguros, Monitoreo, Áreas naturales
Abstract. Obtaining data and its analysis is of the utmost importance for any investigation, since with
them we can answer questions or anticipate situations that warrant a substantial improvement to the
problems raised, which is why the development of an electronic trail monitoring system, allows us to
generate data, identify and make decisions about possible implementations to improve the safety of users
in neighborhoods that are in vulnerable conditions, such as Lomas del Centinela in Zapopan, since the
neighbors use trails within the Bosque del Centinela to move and are affected by robberies and violence,
however, given the global situation due to the COVID 19 pandemic, the use of open spaces has been
increasing and said forest is also a recreational area, therefore knowing the habits, schedules and the influx
of people favors decision-making.
Keywords: Safe trails, Monitoring, Natural areas is.
Introducción
Las comunidades que se encuentran con rezagos en los servicios públicos como son el
suministro de agua y alcantarillado, energía y transporte por mencionar algunos, se ven en la
necesidad de identificar medios para obtenerlos, aunque de ello dependa hasta su propia seguridad.
En este documento se aborda la necesidad de acceso a una colonia que no cuenta con una calidad
adecuada de servicios públicos, lo que provoca que un parte de la población se desplace por un área
natural llamada Bosque del Centinela (Figura 1) a cargo del municipio de Zapopan, Jalisco, México;
cabe señalar que en dicho sendero los usuarios reportan robos en algunos momentos del día, pero,
aunque parezca irrisorio es un espacio que es usado por usuarios que no son vecinos de dicho bosque
pero es muy concurrido para actividades de esparcimiento.
257
Fig. 1 Bosque del Centinela donde se aprecian los senderos. Tomada de Google maps
Es por ello que investigadores de la Universidad de Guadalajara del Centro Universitario de
Tonalá, participan en el Proyecto de Generación distribuida inteligente, una nueva cultura
energética incluyente para la Zona Metropolitana de Guadalajara, donde se aplicaron en un primer
momento una encuesta para conocer las problemáticas que apremian a la comunidad y sus
necesidades, donde una de ellas es el uso de senderos y su interés por contar con senderos seguros y
de preferencia iluminados en dicho espacio.
Ahora bien, la pandemia del SARS- 2 COVID 19, ha cambiado de diferentes maneras las
formas en que las comunidades y los individuos interactúan, pues ante el cierre de espacios públicos
y privados las personas tuvieron que establecer home office, aula en casa o bien realizar actividades
de entretenimiento para grandes y chicos, como realizar ejercicio en los espacios de sus viviendas.
Llevando con ello al confinamiento en casa se han desarrollado por ejemplo nuevos esquemas de
comunicación, que, aunque existían eran más común su uso en espacios académicos o privados, por
ejemplo, el uso de plataformas de videoconferencias o la elaboración de videos, pero en el caso del
esparcimiento el SARS 2 COVID 19 provocó un incremento en la compra de equipos de ejercicios.
Esto debido a que los clubes, gimnasios y áreas cerradas destinadas a la promoción de la actividad
física, fueron temporalmente clausuradas, provocando una evolución en sus modelos de negocios.
Destacaron la renta y venta de equipos para hacer ejercicio, así como también, la elaboración
de estrategias de entrenamiento físico y nutricional por vías electrónicas. Económicamente hablando,
esta estrategia les permitió conservar empleados y sueldos ante la situación de crisis debido al
confinamiento. El fomento al cuidado físico dentro del confinamiento y las estrategias tomadas para
ello, hicieron que el uso de la tecnología de telecomunicaciones aumentara, además de valorizar la
necesidades que debe satisfacer los espacios abiertos para lograr los mismos beneficios de los
obtenidos en el home fitness, además de los agregados en salud mental que representa dicha actividad
física en espacios abiertos. Son características que son necesarias conocer para poder darles
alternativas de solución. [1,2,3]
El primer caso de COVID-19 se detectó en México el 27 de febrero de 2020. El 30 de abril,
64 días después de este primer diagnóstico, el número de pacientes aumentó exponencialmente,
alcanzando un total de 19.224 casos confirmados y 1.859 (9,67%) fallecidos. En el estado de Jalisco,
por citar un ejemplo, la Universidad de Guadalajara se procedió a la suspensión de clases
presenciales a partir del próximo martes 17 de marzo y esto fue prolongándose hasta la fecha de
arranque del semestre 2021B, 10 de agosto del 2021. Paulatinamente, y de acuerdo a las normas
publicadas por la secretaría de salud, se ha regresado a las actividades.[4,5]
Sin embargo, después de meses en confinamiento los primeros espacios en como las áreas
naturales, es por ello que la implementación de un sistema de monitoreo para senderos seguros
permitiría conocer la afluencia, los hábitos de uso, identificar la posibilidad de instalación de
258
infraestructura de iluminación para la mejora en la seguridad de los usuarios flotantes y los vecinos
que la utilizan a diario para desplazarse al trabajo o escuela. Por lo que es necesario conocer la
afluencia y hábitos de de desplazamientos en dichas áreas abiertas; así como también, los beneficios
o inconvenientes que se encuentran los usuarios de dichas rutas. Esto se demostró en un estudio
realizado en Noruega después del confinamiento obligatorio dictaminado por el gobierno. Dicho
análisis se apoyó de una metodología de obtención de datos, el cual, analizaba las rutas principales
recorridas dentro de un área determinada, y con una encuesta posterior para determinar la relación
social del área libre con respecto a los beneficios encontrados por los transeúntes. Además de realizar
una comparación de la misma área previo al confinamiento y después del mismo. Las actividades
recreativas aumentaron un 240% durante las cinco semanas de cierre general (en casa) y se
mantuvieron hasta el período de vacaciones de verano en junio/julio, cuando bajaron a los niveles
básicos. Sin embargo, durante agosto volvieron a aumentar al 89% por encima de la línea base.
Aunque la actividad aumentó en todas las zonas urbanas de uso del suelo, tras el cierre se produjo un
cambio de las zonas residenciales y comerciales a los espacios verdes urbanos, incluidos los bosques
y las áreas protegidas. Los paisajes culturales y las zonas protegidas recibieron niveles de actividad
desproporcionadamente altos en relación con la longitud de los senderos recreativos disponibles en
ellos. Los usuarios eran adolescentes (13-19) mostrando un aumento de cuatro veces en su cuota de
la base de usuarios de Sistema de monitoreo, por medio de una aplicación móvil, al comienzo del
cierre.[6]. Estudios como esos y tendencias mostradas por prestadores de servicios, permiten dar un
panorama mejor sobre las necesidades del usuario, con respecto a calidad de vida y espacios abiertos,
tal como lo demuestra un estudio realizado para la Ciudad de México. Este análisis permitió detectar
las principales áreas de oportunidad y como el usuario convive con las áreas verdes cercanas a su
hogar, y la necesidad de adaptabilidad de su hogar para actividades de esparcimiento. [7]
2 Estado del arte de la problemática
En la colonia de Lomas del Centinela en Zapopan, Jalisco, se tiene una población de 5,400 habitantes
según el censo de población y vivienda del INEGI en el 2010 y en ella una de sus problemáticas es
el transporte público, buena parte de la población utiliza senderos en el Bosque del Centinela para ir
de la colonia a la Avenida de las Cañadas, en este recorrido de aproximadamente 1.9 km, en estos
senderos se encuentran vulnerables ante asaltos, es por ello que se requiere identificar cuáles de estos
senderos son los más utilizados con el fin de proponer un sendero seguro y que utilice alguna
tecnología que les permita tener mayor seguridad, como luminarias o cámaras de seguridad. Ahora
bien, aunque la problemática nace de una necesidad de contar con senderos seguros, este tipo de
sistemas nos permitiría conocer la afluencia y horarios de personas que utilizan el bosque para fines
de esparcimiento e identificar qué acciones se pueden implementar en tiempos de pandemia y post
pandemia por medio de una constelación de los sistemas electrónicos de monitoreo.
3 Metodología
A partir del Proyecto “Generación distribuida inteligente, una nueva cultura energética
incluyente para el Área Metropolitana de Guadalajara” de los Programas Estratégicos Nacionales de
CONACYT, donde participa la Universidad de Guadalajara con sus Centros Universitarios de Tonalá
y de Arte Arquitectura y Diseño y el Laboratorio de Ciencias de las Ciudades el equipo participó en
la elaboración de una encuesta en la que se cuestionó a la comunidad de la colonia de Lomas del
Centinela sobre las problemáticas más apremiantes dando como resultado que la tercer problemática
más apremiante es la necesidad de senderos seguros en el interior del bosque, por tanto se comenzó
con el análisis de campo en el que se identificó el sendero más utilizado con una distancia de 1.96
km así mismo se revisaron posibles espacios para la instalación de sistemas de generación de energía
259
solar fotovoltaica aislada. En la figura 2 se muestra el recorrido al interior del bosque y los senderos
utilizados por vecinos para sus actividades del diario y como esparcimiento para deportistas.
Fig. 2 Recorrido y senderos utilizados por vecinos de Lomas del Centinela y como esparcimiento.
Una vez identificados estos espacios, se procedió al diseño, construcción y operación del sistema de
monitoreo que se instalará en los senderos del Bosque del Centinela el cual cuenta con:
Módulo de comunicación GSM GPRS SIM800L
Radar de microondas RCWL -0516
Baterías de 8800 mha 3.7 V Litio
Panel Solar de 5 V a 250 mA monocristalino
Tarjeta micro Sim 2G, 3G, 5G
Fig. 3 Tarjeta armada para sus pruebas físicas, para detectar fallas antes de su instalación y montaje en la ubicación.
260
4 Pruebas de comunicación
Las pruebas de operación se realizaron mediante la utilización de una micro sim, bajo la red de
telefonía celular, utilizando comandos AT programados bajo un SoC de control de la placa de
desarrollo “T-Call” de la marca “LLEGO®” la cual cuenta con un módulo SIM800L y un módulo
WI-FI ESP32. Su fuente de energía es suministrada por paneles fotovoltaicos.
A pesar de que la placa de desarrollo cuenta con un módulo de conexión WI-FI, toda la comunicación
del proyecto se desarrolla mediante tecnología 3G, a continuación describimos gráficamente la
operación del dispositivo, donde definimos “MaxRegistros” el cual es igual a n+100, donde “n” es
el valor almacenado en la base de datos y "N" el valor almacenado en la memoria interna de la tarjeta.
Fig. 4 Diagrama de operación del sistema de comunicación de la tarjeta.
La placa se mantiene en un estado de hibernación donde solo consume 0.3mA, en este estado de
sueño profundo esp_deep_sleep _start(); solo mantendremos energizado el módulo de I/O de RTC,
necesario para despertar la placa del sueño profundo mediante una señal externa (EXT 0). [8] La
señal externa será la que el módulo sensor de presencia RCWL envíe al detectar una perturbación de
presencia, el cual dicho sensor se ubica para que registre una lectura de 180° desde un punto vertical.
Es importante aclarar que la memoria interna del módulo se refresca cada dia, es decir se reinicia el
conteo, la estructura del path es la siguiente:
"/PEATONES/"+String(NOMBRE_PCB)+String(TIMESTAMP)+"/DATA");
Fig. 5 Visualización en la actualización de los datos.
Para el código de programación y utilización del módulo SIM800L, usaremos dos librerías para
arduino. La primera será “ArduinoOTA.h” y la segunda “AtsurabzaidFirebaseGSM.h” la última la
261
desarrollamos para los comandos AT y la comunicación con el modem del SIM800L, así como los
protocolos HTTPS necesarios para enviar la información a un servidor. [9]
Fig. 6 Visualización del puerto serial “Métricas”
Aquí mostramos la salida seria de la información procesada y descrita en el diagrama de operación.
Podemos apreciar también la estructura de envío de datos en un formato JSON y el número de
peatones registrados en la memoria interna.
La siguiente actividad es la elaboración con impresión 3D de la carcasa que proporcionará seguridad
al sistema de monitoreo, la cual debe ser mimetizada con el entorno, para evitar que sea robada. La
figura 7 muestra el diseño en CAD como propuesta de un nido case y el diseño para la impresión 3D.
262
a) Esquema 3D para la propuesta del
nido-case.
b) Diseño y laminado para impresión
3D
Fig. 7 Visualización del diseño propuesto para la instalación del sistema.
5 Resultados experimentales
El sistema cuenta con un rango de operación de largo alcance debido a que utiliza la red de telefonía
móvil, de los cuales es necesario contar con un plan de datos para el envío de la información a
internet, sin embargo con la ayuda de un código eficiente pudimos hacer que el uso de los datos sea
el menos posible para nuestro caso de estudio, por tanto debemos contar con la cobertura de red
celular.
Los resultados de consumo y tiempos del sistema se muestran en la tabla 1.
Procedimiento Resultado
Consumo en estado de hibernación 300 uA
Consumo nominal 70 mA
Tiempo de reinicio de timer 1 min 30 seg
Almacenamiento 512 valores de 0-255
Datos utilizados 523.5kb/día promedio
Corriente de carga necesaria 1.4 A
1 Batería de litio 8800mAh
2 paneles 7cm X 11cm 250mA 5V
Módulo de carga 1S 1A
Módulo Boost 2-16v
Plan de datos móviles $ $50 MXN
Rango del sensor RCWL 7-9 mts 180°
Tabla 1. Respuesta, tiempos y consumos.
En la tabla 1, se muestra el consumo de datos, los tiempos en los que el sistema se encuentra
encendido y de respuesta con respecto al sistema de comunicación del sistema de monitoreo a
detectar la presencia de la persona.
263
Fig. 8 Diagrama de funcionamiento general del proyecto.
La figura 8 muestra el esquema gráfico del sistema a implementar, el cual estaría colocado en un
árbol para que pase desapercibido. El sistema consta de una tarjeta de comunicación 2G, 3G y 4G,
un sensor de presencia con un rango de 180° de detección, el cual al detectar una presencia éste
enviará los datos obtenidos a la tarjeta de comunicación, que almacenará por día. Una vez terminado
dicho ciclo los datos obtenidos serán tratados para analizar el flujo de peatones en la zona, estos datos
podrán ser visualizados en sitio web, desde un equipo de cómputo o un dispositivo móvil. La
importancia de los datos, son las acciones que se pueden hacer, como, mejorar el alumbrado y
vigilancia, incluso atención de emergencia por parte de los guardabosques, detección de incendios,
análisis de fauna, análisis meteorológicos y aplicaciones lógicas para ciudades inteligentes.
6 Conclusiones y trabajos futuros de la investigación
Como conclusiones tenemos que el sistema de monitoreo ha pasado las pruebas de carga y descarga,
así como él envió de información de forma correcta en las actividades de laboratorio. Es importante
mencionar que las pruebas de campo se efectuarán antes de terminar el mes de septiembre y con ello
tendremos la obtención de datos para su análisis y toma de decisiones sobre las ruta más adecuadas
y seguras para el movimiento de los vecinos de Lomas del Centinela hacia la salida a Avenida de las
Cañadas a través del Bosque del Centinela.
Como trabajo a futuro se contempla la instalación de 10 de estos circuitos permitiendo desarrollar
una constelación y a través de una red neuronal para clasificar a las rutas que las personas tomen.
Parte interesante de este proyecto es que, aunque está diseñado para solventar una problemática de
movilidad y seguridad, la connotación de este sistema con la actual pandemia, puede ayudar a
identificar la afluencia y horarios de uso del espacio permitiendo obtener información valiosa para
los administradores del Bosque.
Una valiosa aportación de este sistema es el posible uso en zonas como el Bosque de la Primavera,
parques, jardines y otros sitios abiertos de esparcimiento para conocer su uso y aprovechamiento para
la toma de decisiones por parte de los administradores de los espacios.
264
7 Referencias
[1] A. Rodríguez, «A falta de gimnasio… cuarentena impulsa la demanda de bicis, caminadoras y escaladoras en casa,»
El Financiero, pp. https://www.elfinanciero.com.mx/empresas/covid-19-impulsa-la-demanda-de-bicis-caminadoras-y-
escaladoras-en-casa/, 25 Junio 2020.
[2] F. Vázquez, «Home Fitness, más demanda para las apps,» El Economista, pp.
https://www.eleconomista.com.mx/deportes/Home-Fitness-mas-demada-para-las-apps-20200326-0148.htm, 20 Marzo
2020.
[3] L. S. Velázquez, «El acondicionamiento físico se reinventa en la pandemia,» Gaceta U de G, pp.
http://www.gaceta.udg.mx/el-acondicionamiento-fisico-se-reinventa-en-la-pandemia/, 12 Mayo 2020.
[4] V. Suárez, M. Suarez Quezada, S. Oros Ruiz, and E. Ronquillo De Jesús, “Epidemiología de COVID-19 en México:
del 27 de febrero al 30 de abril de 2020,” Rev. Clínica Española, vol. 220, no. 8, pp. 463–471, Nov. 2020, doi:
10.1016/j.rce.2020.05.007.
[5] U. d. Guadalajara, «Universidad de Guadalajara, UdG,» 13 Marzo 2020. [En línea]. Available:
https://www.udg.mx/es/noticia/comunicado-ante-contingencia-por-covid-19-la-udeg-suspende-clases-presenciales.
[Último acceso: 07 Agosto 2021].
[6] Z. S. Venter, D. N. Barton, V. Gundersen, H. Figari, and M. S. Nowell, “Back to nature: Norwegians sustain increased
recreational use of urban green space months after the COVID-19 outbreak,” Landsc. Urban Plan., vol. 214, no. April, p.
104175, 2021, doi: 10.1016/j.landurbplan.2021.104175.
[7] C. Mayen Huerta and A. Utomo, “Evaluating the association between urban green spaces and subjective well-being in
Mexico city during the COVID-19 pandemic,” Heal. Place, vol. 70, no. June, p. 102606, 2021, doi:
10.1016/j.healthplace.2021.102606.
[8] Espressif Systems. (06 de Agosto de 2021). GitHub. Obtenido de GitHub: https://docs.espressif.com/projects/esp-
idf/en/latest/esp32/api-reference/system/sleep_modes.html
[9] IndustriialPro and MobilityPro Gateway Wireless Modems. (Mayo de 2016). Red Ion. Obtenido de Red Ion:
https://www.redlion.net/sites/default/files/213/4196/AT%20Commands%20Reference%20Document.pdf
265
El uso de Blockchain como generador de innovacion en la transparencia
y eficiencia en instituciones.
Victor Manuel Zamudio Garcia
Universidad Politécnica Metropolitana de Hidalgo
vzamudio@upmh.edu.mx
Boulevard Acceso a Tolcayuca 1009, Ex-Hacienda de San Javier, Tolcayuca, Hidalgo, México
Celular 7711299883
Resumen
En este trabajo se analizo el impacto del uso de la tecnología de Blockchain, investigando las posibilidades que esta
herramienta ofrece y su potencial a través de sus ventajas en diferentes sectores. Actualmente, se puede utilizar Blockchain
para gestionar actividades financieras por ejemplo la información contenida en un libro contable distribuido, se actualiza
en tiempo real y es permanente, no se puede eliminar la información y es públicamente visible, es transparente.
Se diseño un prototipo de Blockchain, que permitió revisar la protección de información, agilizar procesos para lograr el
cumplimiento de acuerdos entre empresa y cliente. El trabajo metodológicamente esta estructurado con un tipo de
investigación aplicada, de acuerdo a su nivel de profundización, es explicativa por que busca no solo el qué sino el porqué
del fenómeno y cómo han llegado al estado en cuestión, de acuerdo al grado de manipulación de variables, es cuasi
experimental.
Abstract
In this work, the impact of the use of Blockchain technology was analyzed, investigating the possibilities that this tool
offers and its potential through its advantages in different sectors. Currently, Blockchain can be used to manage financial
activities, for example the information contained in a distributed ledger, as it is updated in real time and is permanent, the
information cannot be eliminated and it is publicly visible, it is transparent.
A Blockchain prototype was designed, which allowed reviewing the protection of information, streamlining processes to
achieve compliance with agreements between the company and the client. The work is methodologically structured with a
type of applied research, according to its level of deepening, it is explanatory because it seeks not only the what but the
why of the phenomenon and how they have reached the state in question, according to the degree of manipulation of
variables, it is quasi experimental.
Palabras claves: Blockchain, Automatización, Información, Transacciones, Seguridad.
1 Introducción
El Blockchain, tiene la posibilidad de ser utilizado para enviar dinero de manera directa y segura de una persona
a otra sin pasar por un banco, ahora, el mundo financiero utiliza sistemas híbridos como el Banco de Inglaterra
(Allison, 2015), Visa (Arnold, 2016), sistemas de agilización y mejora de la seguridad de transacciones
inmobiliarias, como el registro de la propiedad o aplicaciones para la mejora de la transparencia en las cuentas
públicas (Goswami, 2016), con lo que permite al usuario saber con transparencia la situación de las operaciones
realizadas, al menos con respecto a la información que se registre de manera estructurada.
La digitalización de la gestión de toda empresa, especialmente en las más pequeñas, está aún en proceso,
266
principalmente a causa de factores como el desconocimiento, infraestructura tecnología y el aspecto
regulatorio, este último dirigido a desincentivar el fraude, es entonces que Blockchain puede garantizar entre
empresas y clientes, confidencialidad de la identidad de los operadores, como el archivo o registro indeleble
de cada una de las transacciones, evitando riesgos en la identidad segura y permanente que se podría lograr con
esta tecnología, gracias al uso de transferencias cifradas para conseguir una comunicación segura de los datos
(Atencio Flores & Mamani Machaca, 2017).
Hay aplicaciones con posibilidades para certificar autenticidad de todo tipo de objetos y actos, combatir el
fraude como el de Provenance que pretende controlar la vida e historia de sus vinos para permitir al consumidor
conocer todo el recorrido hasta llegar a su mesa (Parker, 2015) o el caso concreto de Ujo Music que intenta
asegurar la gestión de los derechos de autor musicales (Capps, 2016). Igualmente Blockchain ayuda en las
actividades de las empresas como generar y conocer estados de las cuentas actualizadas en tiempo real desde
un dispositivo móvil, la contabilización automática de gastos y facturas recurrentes o la conciliación bancaria
con un solo clic. Otra aplicación del Blockchain, son los contratos inteligentes (smart contracts), estos se
ejecutan de modo automático cuando se cumplen las condiciones especificadas y consensuadas en el contrato.
Con esto se ayuda a lograr la automatización de procesos, lo que permite una herramienta de inteligencia de
negocio que facilite la toma de decisiones en tiempo real, mejorando la logística interna de una empresa,
tiempos en actividades de diferentes procesos internos, la atención con certeza a problemáticas que requieren
ayuda para la manipulación de la información privada, aprovechando la seguridad que brinda con la certeza de
que no podrán ser modificados los registros por un tercero y no haya personas que funjan como intermediarios
que puedan vulnerar la seguridad de la información.
El uso de contratos inteligentes y firmas digitales a través de Blockchain, permite tener seguridad en tal cantidad
y con tal inmediatez, que hace innecesarios tareas relacionadas con la intermediación, la verificación y las
labores repetitivas. Lo anterior permite en las empresas, identificación de la necesidad de uso de aplicaciónes
de tecnologías disruptivas en la práctica, aprovechando los avances y sus perspectivas para que con la
funcionalidad de las herramientas tecnológica puestas a disposición por los agentes del mercado, se logre
cambiar los problemas asociados a paradigmas rígidos con el fin de sentar las bases para futuros cambios a
superar logrando de esta forma una aplicabilidad inteligente y más estrecha de las transacciones comunes
haciendo uso de la tecnología de cara a una automatización.
En las empresas publicas por ejemplo, requieren mejorar los tiempos en sus tramites administrativos,
problemáticas relacionadas con el proceso administrativo para compra de algún producto/servicio a petición
de áreas solicitantes de la organización que requieren este insumo ya sea físico (producto) o intangible
(servicio) para desarrollar sus actividades. Se requiere identificar requerimientos, el tiempo promedio de la
compra y pago del producto/servicio, además de que aun se usa la impresión de documentos, la recolección
de una serie de firmas manuales de los solicitantes, seguir un flujo de secuencia que transita por varias áreas
de la empresa, lo que trae como consecuencia perdida de la documentación, atrasos, errores y poca
transparencia.
Por otra parte, las áreas que intervienen en este proceso de compras y respuestas a las áreas solicitantes, no
cuentan con la misma información financiera, es decir, no cuentan con alternativas en tiempo real para validar
que los montos presupuestales asignados a cada partida del área solicitante sean correctos. Con lo anterior, el
solicitante puede verse afectado aun con más tiempo de respuesta para obtener el bien o servicio requerido,
complicando el cumplimiento de metas, productividad y desarrollo de nuevas estrategias que permitan mejorar
la logística de todas las actividades de la empresa, traduciéndose en menos productividad y más tensión laboral
y generación de información transparente.
Finalmente en el área principal de administración de las empresas, suelen recibir o realizar auditorias de los
presupuestos ejercidos, los que al estar clasificados en partidas presupuestarias con respectivas claves, llega a
generar confusión, ya que desafortunadamente no se cuenta en ocasiones con tecnología que permita tener un
mejor control de esta información, es decir, la transparencia no es clara y la posibilidad de alterar documentos
es latente, si a esto se le agrega que en fechas de auditorias, se genera un ambiente de tensión al tener que
integrar de manera manual e imprimiendo documentos que en ocasiones no aparecen o se deben de volver a
267
solicitar a el área que realizó la petición inicialmente, concluyendo en mas atrasos en los tiempos de servicios
de la empresa.
2 Estado del arte
La llegada de Blockchain puede aportar soluciones a las empresas de diferentes sectores como el financiero,
pero también en otras áreas, como la contabilidad de las empresas, auditorias, aspectos jurídicos, los contratos
inteligentes, la cadena de suministros y la industria de los seguros pero sobretodo en la transparencia, lo que
ayuda a las empresas publicas y privadas en una mejor administración. Blockchain, usa mecanismos
criptográficos para asegurar la imposibilidad de ser manipulable, lo anterior en base a la criptografía, la ciencia
que trata de intercambiar información de forma segura, haciendo el mensaje ilegible, sin ocultar la existencia
de dicho mensaje (Hernández Encinas, 2016). Desafortunadamente, la sociedad requiere que las empresas
funcionen cumpliendo una serie de condiciones y entre ellas se encuentra la de poder ofrecer garantías a las
organizaciones y personas, protegiendo su identidad e información relevante de cada uno de los actores que
intervienen (Telefónica, 2016).
Esta tecnología, se está utilizando por ejemplo para proporcionar una identidad digital no falsificable a
inmigrantes o refugiados que han perdido o les ha sido sustraído su documentación o en casos con Internet de
las cosas, permitiendo adquirir un producto, el pago sólo se realizaría automáticamente cuando el paquete sea
entregado o fuese instalado y funcionase, ahorrando recursos. Lo mismo se está aplicando al alquiler de coches,
donde el control del coche queda vinculado automáticamente al pago, lo que a la vez reduce la flexibilidad y
personalización de esos contratos.
La llegada de Blockchain puede aportar soluciones a las empresas de diferentes sectores como el financiero,
pero también en otras áreas, como la contabilidad de las empresas publicas, auditorias, aspectos jurídicos, los
contratos inteligentes, la cadena de suministros y la industria de los seguros. El estudio de Ayestarán Avendaño
(2016) proporciona conclusiones respecto a la nueva era digital. Afirma que el cliente digital es más exigente
y un atributo fundamental para dar un valor añadido es la transparencia y la privacidad. Señala que los usuarios
desean tener bajo control sus datos personales. Pero este aumento de la conectividad, ha ocasionado también
problemas de seguridad, como la captura de contraseñas de los usuarios, generando mayor incertidumbre,
porque hay más riesgo de amenazas a estos dispositivos pero, sobre todo, la complicación de poder
implementarlo en los diferentes niveles de las empresas (Márquez Solís, 2017).
En la nueva era digital y con clientes digitales más exigentes, diferentes departamentos de empresas como el
área contable, puede verse involucrada con la llegada de Blockchain, lo que podría generar ahora una
contabilidad pública (Karp, 2015, p.2), por ello se ha hecho referencia a que los contables podrían examinar el
funcionamiento interno de una empresa en todo momento y que las transacciones están haciéndose y como las
registra la red (Tapscott & Tapscott, 2016).
Nuevas formas de trabajo llevadas a cabo con el uso de Blockchain permitirán que los stakeholders se
beneficien debido a que podrían seguir el buen o mal funcionamiento de la empresa, ya que una de las
características de la tecnología Blockchain es su irreversibilidad de todas las transacciones y esto reduce
problemáticas de manipulación y falseo de documentación y contabilidad de las empresas. Tapscott & Tapscott
(2016), consideran que los nuevos métodos de contabilidad que usen registros distribuidos de Blockchain
harán que la auditoria e información financiera sea transparente, en tiempo real, lo anterior es posible llevarlo
a cabo al interior de una empresa, por lo que no solo el sector que más evolucionará con el Blockchain será la
banca, hay otros usos de esta tecnología que se pueden aplicar a sectores mejorando en la gestión interna de
las empresas logrando la transparencia, como lo es el caso de las empresas publicas.
3 Metodología
Hipótesis.
Un prototipo de Blockchain privado será un generador de innovacion en la transparencia y eficiencia en
268
instituciones.
Objetivo General.
Diseñar un prototipo de Blockchain privado que pueda ser usado como generador de innovacion en la
transparencia y eficiencia en instituciones.
La investigación que aquí se presenta, se considera como aplicada, toda vez que está centrada en encontrar
mecanismos o estrategias que permitan lograr un objetivo concreto, como curar una enfermedad o conseguir
un elemento o bien que pueda ser de utilidad. Por consiguiente, el tipo de ámbito al que se aplica es muy
específico y bien delimitado, ya que no se trata de explicar una amplia variedad de situaciones, sino que más
bien se intenta abordar un problema específico, en este caso el impacto del diseño y uso de un Blockchaiun
como generador de innovacion en la transparencia y eficiencia en instituciones.
La investigación es de corte cuantitativo, ya que de acuerdo con Sarduy (2007) este tipo de investigación
permite recoger, procesar y analizar datos cuantitativos o numéricos sobre variables previamente determinadas.
Así mismo, Sousa et al., (2007) menciona que la investigación cuantitativa involucra el análisis de los números
para obtener una respuesta a la pregunta o hipótesis de la investigación.
El diseño de investigación es cuasi experimental, transversal descriptivo, dado que los datos obtenidos se
tendrán de un solo momento y, de acuerdo con Hernández, et al (2010), su propósito es describir variables y
analizar su incidencia e interrelación en un momento dado. De acuerdo con Hernández, et ál., (2014) la
recopilación de datos implica detallar un plan de acción para reunir los datos específicos que se requieran, así,
en esta investigación se utilizó como instrumento el cuestionario para ser aplicado para empleados y usuarios
del prototipo obteniendo datos del proceso de solicitud de compra de un producto/servicio. Se puede mencionar
que el método para la recolección de datos de acuerdo con Chávez (s.f.) se define como el proceso de obtención
de información empírica que permita la medición de las variables en las unidades de análisis, a fin de obtener
los datos necesarios para el estudio del problema o aspecto de la realidad social motivo de investigación.
De acuerdo con Cardona citado por Guzmán (2008) al mencionar que una buena muestra será aquella que
representa en pleno a la población de la que fue extraída. Hay tres etapas significativas en el proceso de
muestreo:
• Identificación de la población y de la muestra.
• Determinación del tamaño de la muestra.
• Selección de la muestra.
En este sentido, se utilizó un muestreo no probabilístico que, de acuerdo con Guzmán (2008), se caracteriza
por su aplicación cuando no es posible o es innecesario una muestra probabilística, es decir no todos los sujetos
tienen la misma oportunidad de ser seleccionados. Por tal motivo, se realizó un muestreo por conveniencia a
40 personas.
La aplicación del instrumento se realizó mediante la herramienta de Google Forms y para tal efecto, se les
proporcionó la liga a los encuestados y podían contestar el cuestionario registrándose con su cuenta de correo
institucional mediante el acceso por única ocasión. En el citado cuestionario se recolectaron los datos de las
variables a ser observadas y analizadas para poder encontrar en qué medida impacta el diseño y uso de un
Blockchain como generador de innovacion en la transparencia y eficiencia en instituciones, la estructura
consistió en preguntas abiertas y cerradas para poder obtener respuestas concretas y subjetivas.
4 Resultados experimentales
Posteriormente, los datos de obtenidos del instrumento que se aplicó a la muestra de 40 encuestados sirvieron
de sustento para el respectivo análisis, encontrando los siguientes hallazgos.
269
• El 97,3% de los encuestados, coinciden que es importante usar tecnología para lograr la
transparencia en las organizaciones. Mientras el otro 2,7%, piensan que son dos cosas totalmente
diferentes y no condicionan una a la otra.
• El 91,9% mencionó que la transparencia en la rendición de cuentas con ayuda de Blockchain es
funcional para que le permita a los interesados conocer y trabajar con recursos tecnológicos
disponibles actualmente. El otro 8,1%, respondió que no confían plenamente en usar Blockchain.
• El 81,1% aseguran que el usar tecnología forma parte de los cambios que se deben hacer, ya que
permite un mejor servicio a los usuarios y adquirir conocimientos y habilidades a través de estas
herramientas. En lo que el otro 18,9%, se refirió que usar tecnología es bueno pero también hay
procesos que son complicados.
• El 100% de la población encuestada, afirman que el contar con la información pertinente, oportuna
y segura de no ser alterada, permite enriquecer de manera significativa la cultura de la transparencia.
• La mayor parte (94,6%) coincidieron que los miembros de las organizaciones pueden llegar a ser
mas eficientes si se les enseña de acuerdo con su área de trabajo el usar tecnología y como beneficia
su trabajo. Mientras que el 5,4%, hacen mención que todos pueden aprender por los diferentes
canales, aunque quizá algunos les resultan menos atractivo que otros el usar este tipo de tecnología.
• El 86,5% están de acuerdo en aplicar un recurso tecnológico como Blockchain, ya que esto puede
ayudar a las organizaciones a reducir problemáticas de manipulación y falseo de documentación y
contabilidad de las empresas En lo que el otro 13,5%, no está conforme, ya que no se interactúa
directamente con personas y no confían en la integridad que proporciona Blockchain.
• El 73% de los encuestados concuerdan que la apertura al cambio y uso de las tecnologías juega un
papel muy importante, pero no más que la disciplina y constancia, mientras el 27% cree que las
políticas, áreas y competencias de desarrollo en las empresas heredadas no pueden ser cambiadas.
• El 100% de los encuestados están de acuerdo que la sociedad puede funcionar para un buen
aprendizaje en el uso de tecnologías como Blockchain en las organizaciones, lo que permite conocer
mejor nuevas metodologías que ayuden al cliente digital para dar un valor añadido en la
transparencia y la privacidad. Señala que los usuarios desean tener bajo control sus datos personales.
• El 78,4% de los encuestados, son aquellos que han hecho uso una aplicación tecnológica y/o usaron
Blockchain, mientras que el 21,6% desconoce estas herramientas y en cómo usarlas.
5 Conclusiones
El prototipo del Blockchain se desarrolló en una opción privada interna (solo se puede ocupar por los usuarios
internos de la empresa) con la intención de poder aprovechar esta tecnología y poder emitir un contrato
inteligente, con lo que se permita agilizar el proceso administrativo para compra de algún producto/servicios
a petición de áreas solicitantes de la empresa.
Fue posible lograr el objetivo general planteado, diseñar un prototipo de Blockchain privado que pueda ser
usado como generador de innovacion en sectores financieros y no financieros, en este caso el tiempo de quince
días hábiles para realizar el proceso administrativo para compra de algún producto/servicio a petición de áreas
solicitantes de la empresa, se redujo a tres días hábiles. Por otra parte fue posible contar con un libro de
contabilidad digital que permite registrar transacciones digitales permitiendo el conocimiento del estado de las
cuentas actualizado en tiempo real, la contabilización automática de gastos, es decir, puede lograr la
automatización integral de todos los procesos que conforman la gestión de una empresa publica o privada,
convirtiendo una herramienta de inteligencia de negocio a escala que facilite la toma de decisiones en tiempo
real.
La hipótesis de un prototipo de Blockchain genera innovacion en la transparencia y eficiencia en instituciones,
permitió encontrar hallazgos de cómo esta herramienta contribuye a la mejora de la logística de actividades al
interior de las empresas, por lo tanto, la reducción de costos para las empresas, mejoras en la prestación de
servicios, aumento en la experiencia positiva del cliente o usuarios, transparencia, confianza y rapidez en las
transacciones comerciales entre empresas y particulares es factible.
270
Referencias
 Allison, I. (2015). Bank of England: Central banks looking at 'hybrid systems' using Bitcoin's
 blockchain technology. International Business Time. July 16.
 2.Arnold, M. (2016). Visa invita a las entidades a probar su nuevo sistema de pagos bancarios
 basado en la tecnología del 'bitcoin'. Expansion (15/9/2016).
 Goswami, D (2016). Unchaining Blockchain: The Ultimate Transparency Tool? Blog of
 Government Innovators Network, Harvard Kennedy School, Ash Center for Democratic
 Governance and Innovation. (8/6/2016).
 Parker, L. (2015). Provenance to restore consumer trust with the blockchain. Brave New Coin
 (5/12/2015).
 Capps, M. (2016). ConsenSys Anticipates Moving Ujo Music Blockchain Rights Management
 Offering to Beta. Bitcoin Magazine (8/11/2016).
 Instituto Nacional de Estadistica, Geografia e Informatica (INEGI, 2019).
 Bravo del Río, A. (28 de Junio de 2016). Universidad Central "Marta Abreu" de Las Villas. Obtenido de
http://dspace.uclv.edu.cu:8089/handle/123456789/6706
 Rojas Corimanya, J. F. (20 de Junio de 2014). Universitat de Barcelona. Obtenido de
http://hdl.handle.net/2445/61585
 Martínez Ramírez, E. A., & Montenegro-Marin, C. E. (12-14 de Noviembre de 2014). Semantic Scholar. Obtenido
de https://pdfs.semanticscholar.org/9d20/208a4a16a5c8ca0628a9015aea8e0c419983.pdf
 Oraá, D. R. (2017). Universidad De Valladolid. Obtenido de https://uvadoc.uva.es/handle/10324/7992
 Hernández Encinas (2016). La criptografía, Editorial Consejo Superior de Investigaciones Científicas; Los libros
de la Catarata.
271
XIV. Vehículos
Autónomos
272
Modelo basado en visión por computadora para detecciónde carriles
viales para la autonomía de vehículos
Juan Antonio Guerrero-Ibáñez 1
, Juan José Contreras-Castillo 1
y Pedro C. Santana-
Mancilla 1
1
Facultad de Telemática – Universidad de Colima, Avenida Universidad 333, Colonia
Las Víboras, Colima, Colima, 28040. México
antonio_guerrero@ucol.mx, juancont@ucol.mx, psantana@ucol.mx
Resumen. La industria automotriz se está centrando en desarrollar vehículos con
un cierto nivel de autonomía hasta lograr el vehículo completamente autónomo.
El objetivo global es generar un entorno de conducción más amigable y seguro
tanto para los conductores, los pasajeros y los peatones. En este artículo
presentamos un modelo basado en visión por computadora para detección de
carriles que contribuya a proporcionar un cierto nivel de autonomía al vehículo.
Los resultados obtenidos al aplicar el modelo mostraron una alta exactitud de
detección de carriles, lo que permite contribuir al proceso de automatización del
coche.
Abstract. The automotive industry is focusing on developing vehicles with some
autonomy level until achieving the fully autonomous vehicle. The global
objective is to create a more friendly and safe driving environment for drivers,
passengers, and pedestrians. This paper presents a computer vision-based model
for lane detection that contributes to providing a certain level of autonomy for
the vehicle. The results obtained when the model was applied a high accuracy in
the lane detection process, allowing a contribution to the vehicle automation
process.
Keywords: coches, niveles de autonomía, visión por computadora, algoritmos,
seguridad.
1. Introducción
De acuerdo con la Organización Mundial de la Salud (OMS), a nivel mundial alrededor
de 1.25 millones de personas mueren como consecuencia de accidentes de tránsito [1].
De acuerdo al Departamento de Transporte de los Estados Unidos, las estadísticas de
accidentes muestran que el 93% de los accidentes de coches se deben a errores humanos
[2]. Aunado a esto tenemos los problemas que enfrenta la sociedad moderna con respecto
a niveles de contaminación y congestionamiento vial, pérdida de tiempo en las carreteras,
por mencionar algunos.
Por estas razones, en las últimas décadas los fabricantes de vehículos se han enfocado
en proporcionar a los usuarios una experiencia de manejo más agradable, segura y
273
amigable con el ambiente. Los esfuerzos están dirigidos a generar paulatinamente coches
con cierto nivel de autonomía hasta que se alcance la autonomía total del vehículo. La
idea es generar vehículos con capacidad de moverse y transportar de una manera segura,
sin que un humano lo conduzca.
Con esto en mente, la Sociedad de Ingenieros Automotrices (SAE – Por sus siglas en
inglés) [3] definió 5 niveles para determinar la autonomía de un coche de acuerdo al
grado de involucramiento del conductor en el proceso de conducción (Figura 1).
Fig. 1. Niveles de automatización de un vehículo definidos por el SAE.
Uno de los puntos más relevantes para el éxito de la autonomía de los vehículos es la
percepción. La percepción es la tarea de sensar el entorno de conducción, y consiste en
un subconjunto de tareas tales como clasificación y detección de objetos, estimación de
posición de los objetos, localización y mapeo simultáneo de objetos [4]. La percepción
es un proceso crucial en la autonomía de los vehículos para una operación confiable y
segura ya que todos los datos que se reciban del proceso de percepción son procesados
por la computadora central y/o enviados a la nube y se utilizan para la toma de decisiones
que defina el comportamiento del vehículo ante las situaciones detectadas (tráfico, cruce
de peatones, señales de tráfico, etc).
El presente artículo es parte de un proyecto de investigación denominado DeOAVe,
una plataforma para detección de Objetos aplicado a la Autonomía de Vehículos. En
específico, en este trabajo se presenta un algoritmo para la detección de carriles en
avenidas y carreteras basado en visión computacional.
2. Estado del Arte
La detección de carriles es un componente crítico en la autonomía de los coches y es uno
de los tópicos de investigación más importantes para entender el escenario de conducción
autónoma. Una vez que las posiciones de líneas de los carriles son obtenidas, el coche
conocerá por donde desplazarse y evitar los riesgos de moverse a otros carriles o peor
aún salirse de la carretera.
Los métodos para detección de carriles se dividen en dos categorías: métodos basados
en sensores y métodos basados en visión. Los primeros utilizan dispositivos como
LiDAR, radar o sensores láser así como GPS [5-6]. Por otro lado, los métodos basados
en visión utilizan sistemas de cámaras y son divididos en dos categorías: los métodos
basados en modelos, los cuales crean un modelo matemático de la estructura de la
274
carretera usando coordenadas geométricas de la cámara y la carretera como datos de
entrada [7]; mientras que los métodos basados en características pueden distinguir áreas
con marcas basados en características de la carretera como por ejemplo el color, el
gradiente o el ángulo [8].
El problema de la detección de carriles se ha definido como un problema de
segmentación [9]. La segmentación consiste en dividir la imagen en regiones de interés
llamadas segmentos. Por ejemplo se han propuesto soluciones basados en segmentación
y un método para la generación automática de datos etiquetados [10]. Por otro lado, en
[11] se propone el uso del método de segmentación para realizar la detección de carriles
y posteriormente aplican una transformación de perspectiva aprendida para desempeñar
una corrección de carril.
En este trabajo se presenta un algoritmo de detección de carriles robusto y efectivo
que utiliza el método basado en características. Primeramente se aplica una región de
interés (ROI) a la imagen de entrada para eliminar la región que no pertenezca a la
carretera. Posteriormente se aplica un mapeo inverso de perspectiva (IPM) para delimitar
la región de visión. Como tercer paso se aplica el algoritmo de detección de segmentos
de línea (LSD) para identificar todos los segmentos de línea de la imagen y se aplica un
filtro para eliminar los segmentos de línea falsos de la imagen. Finalmente se aplica IPM
para generar la imagen de salida.
3. Descripción de la propuesta
El proceso de detección de carriles implica muchos retos a resolver, uno de ellos es
evaluar los tipos de condiciones que se pueden encontrar durante el proceso de
conducción (físicas de la carretera, ambientales, estado físico del conductor). Por
ejemplo, las marcas de las carreteras o avenidas pueden variar enormemente. Las
carreteras pueden ser marcadas por líneas sólidas bien definidas, líneas segmentadas,
reflectores circulares, barreras físicas o en el peor de los casos con nada. Por otro lado,
la superficie de la carretera o avenida puede estar compuesta de pavimento oscuro o claro
o una combinación de ambos. Uno de los retos para detección exacta de líneas es
controlar el ruido que aparece en la imagen de entrada, tales como sombras de objetos,
marcas de frenados, entre otros.
La presente propuesta se centra en la detección de carriles en tiempo real mediante el
uso de cámara. Generalmente las líneas para representar los carriles son líneas blancas o
amarillas que se pintan en el pavimento de la carretera. La pregunta a resolver es ¿cómo
detectar las marcas de los carriles? Para poder detectar líneas se definió el proceso que
se muestra en la figura 2 y se describe en las siguientes sub-secciones.
3.1 Captura de imagen
Los datos que se utilizan de entrada son una secuencia de imágenes a color las cuales son
capturadas desde la cámara del vehículo. La cámara se montó en el espejo retrovisoren la
línea central. Toda la información que se captura se procesa por la computadora en
tiempo real y se almacena en la memoria.
275
Fig. 2. Representación de los pasos de la propuesta de solución.
3.2 Conversión de imagen
Debido a que el procesamiento de imágenes a color implica muchas dificultades para la
detección de bordes y el tiempo de procesamiento, las imágenes se convierten a escala
de grises.
3.3 Reducción de ruido
El ruido es un problema para todos los sistemas. La presencia de ruido dificulta la
detección correcta de los bordes, por lo que es indispensable aplicar algún mecanismo
para remover el ruido. El objetivo es suavizar la imagen para facilitar la detección del
mayor número de bordes. Para lograr esto se filtra cualquier ruido de la imagen que
pudiera generar un borde falso a través de un filtro Gaussiano. Cada imagen se almacena
como una colección de pixeles discretos a escala de grises los cuales se representan
mediante un número que representa la brillantez del píxel. Para suavizarlo se modifica el
valor del píxel con el valor promedio de la intensidad de los pixeles a su alrededor. El
promedio se realiza mediante el kernel. El kernel se configuró a un tamaño de 5x5 y se
aplica a todos los pixeles de la imagen.
3.4 Detección de bordes
Para identificar el perímetro de las líneas se realiza un análisis de contraste de forma
entre la superficie de la carretera y las líneas pintadas o la superficie no pavimentada.
Con esto se reduce la cantidad de datos de aprendizaje requeridos y se simplifica la
imagen considerablemente. Para llevar a cabo esta actividad se utilizó el método de
Canny el cual es un algoritmo de múltiples etapas que permite detectar una amplia gama
de bordes en imágenes.
3.5 Detección de área de interés
Debido a que dentro del escenario de conducción existen diferentes objetos a parte de las
líneas, lo que se hace es aplicar un mecanismo que permita ignorar los objetos no
deseados del escenario de conducción. Para resolver este problema, se disminuye el área
de interés con la que se desea trabajar. El objetivo de esta etapa es definir el área donde
se localizan las líneas de los carriles, la cual se conoce como Región de Interés (ROI-
por sus siglas en inglés). Primero, se define una gráfica donde se puedan representar las
coordenadas para poder definir los puntos del área de interés (figura 3a). Posteriormente
se definen las coordenadas para definir un polígono como la región de interés (figura
3b). Finalmente se aplica una máscara a la imagen para cambiar los valores de los pixeles
de la región deseada. De esta manera se cambian todos los valores de la región deseada,
colocando toda la imagen en negro y la ROI en blanco (Figura 3c).
276
(a) (b) (c)
Fig. 3. Proceso de definición de área de interés, a) medición de imagen, b) definición de área, c)
Definición de polígono.
3.6 Aplicación de máscara
En esta parte del proceso se aplica la máscara a la imagen donde se obtuvieron los bordes
y mediante operaciones AND con números binarios se obtiene la primera representación
de líneas de guía de la imagen original. Al hacer operaciones AND, solamente cuando
los dos valores de los píxeles son 1 se hará un uno. La figura 8 presenta el resultado de
esta etapa.
3.7 Aplicación de Transformada de Hough
Después de identificar los contornos en nuestra imagen y aislar la región de interés, se
usó una técnica que detecta las líneas rectas en la imagen y de esta forma identificar las
líneas guías en la carretera. La transformada de Hough es una técnica para la detección
de figuras en imágenes digitales. Esta técnica es mayormente usada en el campo de
Visión por Computadora. Con la transformada de Hough es posible encontrar todo tipo
de figuras que puedan ser expresadas matemáticamente, tales como rectas,
circunferencias o elipses.
El caso más simple para la transformada de Hough es la transformación lineal para
detectar líneas rectas. En el espacio de la imagen, la recta se puede representar con la
ecuación y=m*x+n y se puede graficar para cada par (x,y) de la imagen. En la
277
transformada de Hough, la idea principal es considerar las características de una recta en
término de sus parámetros (m,n) y no como puntos de la imagen (x1,y1), (xn,yn)
Basándose en lo anterior, la recta y=m*x+n se puede representar como un punto (m,n)
en el espacio de parámetros. Sin embargo, cuando se tienen rectas verticales, los
parámetros de la recta (m,n) se indefinen. Por esta razón es mejor usar los parámetros
que describen una recta en coordenadas polares, denotados (ρ, θ).
El parámetro ρ representa la distancia entre el origen de coordenadas y el punto ( x,y),
mientras que θ es el ángulo del vector director de la recta perpendicular a la recta original
y que pasa por el origen de coordenadas.
3.8 Optimización
Después de tener una detección de las líneas, aplicamos un proceso de optimización para
que en lugar de tener múltiples líneas podamos generar una sola línea que trace la línea
guía basado en el promedio de la pendiente de las líneas. Al aplicar este procedimiento
se optimiza el dibujo de las líneas guía. Mediante este procedimiento, puede haber
muchos puntos de intersección que representan líneas en XY. Lo que se hace es combinar
todas esas líneas en dos líneas promedios maestras. Finalmente, cuando ya se tienen las
dos líneas maestras, se dibujan en la imagen original de la carretera para tener un
solapamiento suavizado.
4. Resultados
Para la implementación del algoritmo se utilizó el lenguaje Phyton en conjunto con la
librería de libre distribución OpenCV enfocada a la visión artificial. Para este proyecto,
se utilizaron 5 diferentes videos de alrededor de 4 minutos donde se mostraba la visión
de la cámara durante el proceso de conducción. Se aplicó el algoritmo y se visualizó la
identificación de las líneas del carril de la carretera. La figura 4(a), muestra todas las
imágenes que dan por resultado la detección de líneas del carril.
Para medir la precisión del algoritmo se realizó un comparativo de los datos reales de
localización del objeto deseado con los resultados de predicción del algoritmo propuesto.
Se uso la métrica de intersección sobre una unión para medir la exactitud de localización.
Para esta métrica (Miu) la cual se calcula mediante una división del área de intersección
entre el área de unión. De esta forma, se calcula el área de solapamiento entre la figura
delimitadora real y la figura delimitadora obtenida por el algoritmo dividido entre la
figura de unión de las dos regiones [12]. De acuerdo al método propuesto en [12], si el
valor es mayor a 0.5 se considera un positivo verdadero. Finalmente, en la figura 5 se
puede observar el resultado del proceso de la métrica Miu, en la cual se observa que los
valores estuvieron oscilando entre 0.78 y 0.98, con un tasas promedio entre 0.86 y 0.94.
La tasa promedio de todos los cáculos fue de 0.91, lo que nos proporciona un alto grado
de precisión, de acuerdo al método utilizado.
278
(a) (b)
Fig. 4. a) diferentes resultados de las fases del proceso propuesto, b) resultado de la aplicación
del algoritmo
Fig. 5. Resultado de la métrica de medición de exactitud y localización.
5. Conclusiones y trabajo futuro
Con respecto al proyecto, mediante este algoritmo propuesto pudimos realizar el primer
esfuerzo para detectar carriles. Pudimos comprobar que el algoritmo fue muy preciso, ya
que probamos con diferentes videos y en todos se detectó correctamente las líneas que
representan la división de carriles.
279
Como trabajo futuro se está trabajando en aplicar este proceso para la detección
de señales de tráfico y peatones para después implementarlo en un simulador que
integre todas las funciones y comience a tomar decisiones en el proceso de
conducción.
References
[1] Organización Mundial de la Salud (OMS), Informe sobre la situación mundial de la
seguridadvial 2015, 2015, disponible en:
https://www.who.int/violence_injury_prevention/road_safety_status/2015/Summary_GS
RRS 2015_SPA.pdf
[2] U.S. Department of Transportation, Technical Report: Vehicle Automation and
Weather: Challenges and Opportunities, 2016.
[3] SAE, Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle
Automated Driving Systems, SAE On-Road Automated Vehicle Standards Committee,
Hong Kong, China, Technical Report J3016_201401, 2014.
[4] A. Gupta, A. Anpalagan, L. Guan, A. Shaharyar Khwaja, Deep learning for object
detection and scene perception in self-driving cars: Survey, challenges, and open issues,
Array, Volume 10, 2021.
[5] M. Yousef, A. Hosny, W. Gamil, M. Adel, H. M. Fahmy, S. M. Darweesh, and H.
Mostafa, Dual-Mode Forward Collision Avoidance Algorithm Based on Vehicle-to-
Vehicle (V2V) Communication, in IEEE International Midwest Symposium on Circuits
and Systems (MWSCAS 2018), Windsor, Ontario, Canada, pp. 739-742, 2018.
[6] H. Fahmy, G. Baumann, M. AbdelGhany, and H. Mostafa, “V2V-Based Vehicle Risk
Assessment and Control for Lane-Keeping and Collision Avoidance”, in IEEE
International Conference on Microelectronics (ICM 2017), Beirut, Lebanon, pp. 61-65,
2017.
[7] Dajun Ding, Chanho Lee, Kwang Lee, “An Adaptive Road ROI Determination
Algorithm for Lane Detection,” in Proceedings of the TENCON 2013–2013 IEEE
Region 10 Conference; pp. 22–25, 2013.
[8] Pallavi V. Ingale and Prof. K. S. Bhagat, “Comparative Study of Lane Detection
Techniques,” in International Journal on Recent and Innovation Trends in Computing
and Communication,vol. 4, no. 5, 2016.
[9] J. Kim and C. Park, End-to-end ego lane estimation based on sequential transfer learning
for self-driving cars, in Proceedings of the IEEE Conference on Computer Vision and
Pattern Recognition Workshops, 2017, pp. 30–38.
[10] K. Behrendt and J. Witt, “Deep learning lane marker segmentation from automatically
generated labels,” in 2017 IEEE/RSJ International Conference on Intelligent Robots and
Systems (IROS). IEEE, 2017, pp. 777–782.
[11] D. Neven, B. De Brabandere, S. Georgoulis, M. Proesmans, and L. Van Gool, “Towards
end- to-end lanedetection: an instance segmen- tation approach,” in 2018 IEEE Intelligent
Vehicles Symposium (IV). IEEE, 2018, pp. 286–291.
[12] Simhambhatla, Ramesh; Okiah, Kevin; Kuchkula, Shravan; and Slater, Robert (2019)
"Self-Driving Cars: Evaluation of Deep Learning Techniques for Object Detection in
Different Driving Conditions," SMU Data Science Review: Vol. 2 : No. 1 , Article 23.
280
Diseño de órtesis paramétrica para corredores de pista en silla de
ruedas
Israel Garduño-Bonilla1
, Ana Lilia Laureano-Cruces2
, Juan Carlos Pérez-Alva1
1
Facultad de Estudios Superiores Aragón-UNAM
2
Departamento de Sistemas UAM-A
RESUMEN
La órtesis está definida como un dispositivo aplicado a nivel externo que se usa para modificar
características estructurales y funcionales del sistema esquelético neuromuscular. El objetivo de la
investigación consiste en diseñar una órtesis para corredores de pista en silla de ruedas, con los beneficios
del diseño paramétrico para ser fabricada por medio de Manufactura Aditiva (FDM, Fused Deposition
Modeling).
Para la investigación fue considerada la antropometría de las manos de deportistas paralímpicos y fueron
fabricados moldes de silicón para realizar vaciados en resina epóxica, los cuales fueron escaneados en 3D
para generar modelos virtuales de la órtesis, para posteriormente ser parametrizados. La Manufactura
Aditiva fue seleccionada por ser un proceso de fabricación rápida de prototipos, además de tener la
capacidad de variar la anisotropía en la deposición y con ello la resistencia del material.
Generada la órtesis se procederá a evaluar mecánicamente los prototipos físicos obtenidos de la
manufactura aditiva y se harán las respectivas modificaciones.
Palabras clave: Órtesis para mano; manufactura aditiva; diseño paramétrico; sillas de ruedas deportivas.
1. INTRODUCCIÓN
La pérdida o daño de algún miembro del cuerpo es una situación que ha sufrido el ser humano desde la
prehistoria; algunas de las primeras evidencias fueron encontradas en las cavernas de España y Francia
que datan de hace 36000 años A.C., en las cuales se pueden observar impresiones de figuras humanas con
amputaciones en miembros superiores [1].
Con la finalidad de apoyar la funcionalidad o pérdida de alguno de los miembros superiores e inferiores,
como manos, brazos, pies y piernas, la tecnología en el campo de la medicina ha desarrollado elementos
conocidos como prótesis y órtesis. La palabra Prótesis viene de la raíz griega pros, que significa sustituir,
colocar o añadir, y la palabra Órtesis tiene su significado etimológico en la raíz ortho, que es poner recto
o enderezar.
281
Por su parte la Sociedad Internacional de Órtesis y Prótesis, define a la órtesis como un dispositivo
aplicado a nivel externo que se usa para modificar características estructurales y funcionales del sistema
esquelético neuromuscular [2].
Actualmente algunos corredores de pista en silla de ruedas utilizan órtesis para generar el impulso de
avance en la silla. En este deporte la fuerza del deportista es esencial, la cual es transmitida a la silla de
ruedas por medio de la fuerza de los brazos y manos, que empujan los aros de avance para que se realice
el desplazamiento.
Es importante señalar que la órtesis en este caso no tiene una función correctiva o médica, el uso es debido
a que por medio de la órtesis se golpea el aro de avance y ello genera un esfuerzo dinámico de mayor
intensidad que un empuje, lo cual produce el incremento del desplazamiento en menor tiempo.
En cuanto al diseño paramétrico, este es definido como un método matemático [3] asociado al Diseño
Asistido por Computadora (CAD) que tiene la capacidad de modificar las geometrías del modelo virtual
a partir de parámetros definidos, de tal manera que las dimensiones son modificadas dependiendo de los
parámetros asignados al modelo [4].
Considerando los aspectos de la órtesis para los deportistas y las características del diseño paramétrico,
la investigación tiene como objetivo diseñar una órtesis para corredores de pista en silla de ruedas, que
pueda ajustarse a las dimensiones de mano mediante el diseño paramétrico.
Para la fabricación de la órtesis y sus prototipos será utilizada la Manufactura Aditiva (FDM, Fused
Deposition Modeling). La elección de este proceso es por los siguientes criterios: 1) es un sistema de
prototipado rápido, 2) puede ser realizado mediante una impresora 3D, 3) existe la posibilidad de utilizar
diferentes materiales en la fabricación y 4) es posible realizar modificaciones en la anisotropía de la
deposición del material, para mejorar las propiedades mecánicas de la órtesis.
2. METODOLOGÍA
Para el desarrollo del proyecto fue empleada la metodología de la investigación tecnológica, la cual es un
proceso complejo que integra la lógica de la invención, el diseño y la innovación, con la finalidad de
modificar la realidad mediante la investigación y la transformación [5] .
Teniendo en consideración esta metodología, la investigación tuvo las siguientes etapas:
1) Análisis de la carrera de silla de ruedas, para determinar las características
2) Análisis biomecánico del impulso proporcionado por el deportista a la silla de ruedas.
3) Estudio de los productos análogos en el mercado que son utilizados para el impulso de la silla.
282
4) Análisis de materiales empleados en la fabricación tanto de productos análogos como de órtesis.
5) Realizar mediciones de las manos de los deportistas y de la forma que la mano se adapta al aro de la
silla para generar el impulso de avance.
6) Fabricar modelos en resina considerando las medidas de los deportistas y los productos análogos.
7) Digitalizar los modelos de resina para obtener el modelo virtual.
8) Parametrizar el modelo virtual para que pueda aceptar los datos antropométricos de la mano y se ajuste
automáticamente en dimensiones.
9) Producir el prototipo parametrizado mediante FDM, considerando las opciones de deposición del
material para generar la anisotropía más adecuada.
10) Verificar las dimensiones del prototipo físico parametrizado y comparar con las medidas reales de la
mano deportista, para detectar posibles discrepancias y congruencias en cuanto a medidas y volúmenes.
A partir de estas etapas se obtiene el prototipo físico, que posteriormente en investigaciones consecuentes
será evaluado en cuanto a resistencia mecánica y en condiciones de uso.
3. DEPORTE ADAPTADO EN SILLA DE RUEDAS.
La silla de ruedas es un dispositivo que utiliza una persona con incapacidad para movilizarse utilizando
sus piernas; algunas personas utilizan este objeto como medio para desplazarse de manera cotidiana e
incluso las sillas de ruedas son empleadas para realizar actividades deportivas.
Cada disciplina deportiva en la que se utiliza una silla de ruedas tiene características muy particulares,
por un lado, debe cumplir tanto con los requerimientos del usuario en relación con su discapacidad y por
otro, con los requerimientos técnicos del tipo de deporte que se practica, e inclusive se debe acoplar a
ciertas normativas y reglamentos deportivos.
En el caso de las sillas de ruedas para carrera de pista (Figura 1), actualmente están conformadas por una
estructura ligera, que puede ser de fibra de carbono o aluminio, con dos ruedas traseras y una rueda
delantera.
La rueda delantera suele tener alrededor de 20 pulgadas de diámetro, y las ruedas traseras varían de 25 a
27 pulgadas de diámetro [6].
283
Figura 1. Silla de ruedas para carrera de pista. Imagen
utilizada con autorización de la Fábrica de Silla de Ruedas
Industrias Lince S.A. de C.V.
Estas sillas se fabrican a medida ya que la antropometría varía mucho entre cada deportista y esto afecta
también la posición en la que corre el usuario. La posición es importante ya que la inclinación en la
estructura y las medidas del asiento proporcionan soporte y ajuste para que el deportista desarrolle la
mayor fuerza posible y se transmita a las ruedas para incrementar la velocidad. Para la transmisión de la
fuerza del deportista a la silla de pista, se realiza por medio de estructuras circulares unidas las ruedas
traseras, las cuales se conocen coloquialmente como aros de avance (Figura 2).
Aros de avance
Figura 2. Aros de avance en la silla de ruedas para carrera de pista.
Imagen utilizada con autorización de la Fábrica de Silla de Ruedas
Industrias Lince S.A. de C.V.
Los aros son elementos importantes ya que es el contacto de fuerza y empuje de los brazos y manos de
deportista con la silla. Actualmente, para proteger las manos y proporcionar mejor sujeción del aro, son
utilizados guantes que están fabricados con piel; en el dorso de la mano y el pulgar tiene cubiertas
poliméricas de textura rugosa para protección y agarre (Figura 3).
284
Figura 3. Guantes utilizados para la carrera de pista en silla de ruedas.
Estos guantes separan los dedos de la mano en tres partes, de tal forma que se juntan los dedos índice-
medio y anular-meñique, quedando el pulgar solo. Por medio de una banda con velcro unido a los dedos
índice-anular que se ajusta a la muñeca formado una especie de muñón (Figura 4) esto permite, tanto una
mejor adaptación al aro de avance, como mayor sujeción al momento del impulso.
Figura 4. Ajuste del guante de los dedos hacia la muñeca por
medio de una cinta velcro para mejor sujeción y protección.
285
Estos guantes son comercializados como guantes suaves para personas que se inician en la disciplina
deportiva; existen también otros tipos de guantes que han sido llamados coloquialmente “guantes duros”.
Sin embargo, no se ajustan a la definición de guantes ya que no cubren la mano como los observados en
las figuras anteriores; estos son sujetados con la mano para realizar el empuje del aro de avance. Debido
a la forma, resistencia y uso, estos aditamentos se adaptan más a la definición de órtesis que fue
mencionada en el inicio del documento.
Este tipo de órtesis generalmente es fabricado de manera artesanal y para ello se utiliza un polímero
termo-formable (Figura 5), que puede moldearse a las dimensiones la mano de cualquier deportista
(Figura 6). y que posteriormente se endurece para resistir los esfuerzos.
Figura 5. Órtesis fabricadas de manera artesanal con polímero termo-formable.
Estas órtesis artesanales son recubiertas con un material similar al neopreno, con el objetivo de tener una
superficie de contacto rugosa, que permita un mayor coeficiente de fricción entre la superficie del aro de
avance y la órtesis, pero también como protección tanto, para los impactos que se generan al momento de
impulsar el aro, como a talladuras o rozamiento con la mano.
286
Figura 6. La órtesis es moldeada con base en las dimensiones de la mano del deportista y es recubierta con un material
similar al neopreno para sujeción y protección.
4. ANTROPOMETRÍA DE LA MANO Y RÉPLICA DE LA ÓRTESIS
ARTESANAL.
Para el diseño de esta órtesis deportiva es importante considerar las dimensiones de la mano del deportista,
ya que esta será un producto personalizado a través de diseño paramétrico.
Teniendo la personalización como elemento importante, se procedió a tomar las medidas del ancho de la
mano, el largo de los dedos índice-medio, el grosor de estos dos dedos y el largo del dedo pulgar (Figuras
7 y 8).
Figura 7. Toma de medida del grosor de los dedos índice y medio del deportista.
287
Figura 8. Toma de medida del ancho de la palma de la mano del deportista.
Figura 9. Medida del largo del pulgar del deportista.
Además de estas medidas antropométricas, también fue analizada la órtesis artesanal y se compararon
ambas dimensiones. Este aspecto fue relevante también en la investigación ya que la posición que adopta
la mano es un tanto complicada.
Esto se debe a que la órtesis debe contemplar un espacio entre el dedo pulgar y los dedos índice-medio,
para que pueda acoplarse con el grosor del aro de avance de la silla de ruedas, Además también debe dar
soporte y protección a la zona del pulgar para que se realice el empuje que desplazará al deportista.
Cabe mencionar que esta órtesis utilizada por el deportista es un objeto muy funcional y al ser altamente
personalizado le ayuda a tener un mejor desempeño en los entrenamientos y en las competencias.
Considerando este aspecto de funcionalidad y adaptabilidad, se procedió a fabricar una réplica de esta
órtesis mediante la elaboración de un molde de silicón; este proceso fue seleccionado ya que es ideal para
fabricar piezas con buen detalle [7], y con la capacidad de obtener piezas de formas complejas (Figura
10).
288
Figura 10. Elaboración de molde de silicón para realizar una
réplica de la órtesis artesanal.
Posteriormente a través de un vaciado de resina polimérica en el molde de silicón, fue obtenido un modelo
sólido que fue trabajado para eliminar imperfecciones como sobrantes de material y poros ocasionados
por burbujas de aire en la resina (Figura 11).
Figura 11. Modelo de resina que necesitó de trabajo posterior
para corregir algunos huecos y retirar sobrante de material.
En esta etapa de la investigación era necesario e importante obtener un modelo casi idéntico de la órtesis
fabricada por los deportistas y además que se obtuviera con una calidad adecuada para continuar con el
proceso de digitalización. Después de un proceso de empastado, lijado, pulido y pintado, el modelo final
resultó con una apariencia aceptable para el posterior proceso (Figura 12).
289
Figura 12. Modelo final fabricado en resina con moldes de silicón, obtenido como réplica de las órtesis fabricadas
por los deportistas.
Mediante el empleo de moldes de silicón se obtuvo una réplica con buenos detalles y se mantuvieron las
dimensiones con muy pocas variaciones, las cuales estuvieron entre el rango de 0.5 a 1 mm, lo cual resulta
adecuado para este tipo de piezas con una forma orgánica compleja.
5. MODELO DIGITAL DE LA ÓRTESIS
Una vez obtenido el modelo de la órtesis con una calidad aceptable y con las dimensiones de la órtesis
original, la siguiente fase consiste en generar un modelo virtual-tridimensional que pueda modificarse
con algún software de diseño paramétrico.
Para generar el modelo virtual (Figura 13) fue necesario utilizar un escáner 3D, debido a la complejidad
formal de la órtesis, de hecho, fue necesario realizar correcciones en el modelo para cerrar algunos
espacios o huecos en el mallado de la pieza, ya que el escáner no tenía puntos de referencia en algunas
cavidades profundas.
290
Figura 13. Modelo virtual obtenido de la digitalización
del modelo sólido, por medio de un escáner 3D.
Este modelo también fue analizado en el software Simplify 3D (Figura 14), el cual es una herramienta
excelente para verificar los resultados de la impresión 3D y posibles errores al generar las rutas de
deposición del material al momento de realizar la impresión [8]. Además, este software también
proporcionó información para corroborar las dimensiones, de tal manera que hubiera correspondencia con
el modelo virtual por imprimir y las medidas reales de la órtesis.
Figura 14. Modelo virtual cargado en el software Simplify
3D, para verificar errores en la deposición del material y
escalas en correspondencia con la órtesis original.
6. PARAMETRIZACIÓN DEL MODELO VIRTUAL.
Una vez obtenido el modelo digital será necesario analizarlo y determinar los parámetros necesarios para
que le modelo pueda ser modificado dependiendo de las medidas de las manos de los deportistas. Debido
a la forma compleja de la órtesis y al requerimiento de ajuste dimensional en relación con las medidas de
las manos, serán empleadas geometrías básicas que son denominadas en los modelos digitales, como
formas primitivas, las cuales son cuerpos geométricos virtuales con formas básicas como cubos, cilindros,
prismas rectangulares y conos, que permitirán introducir parámetros básicos para modificar las
dimensiones del modelo virtual y así ajustarse a las medidas de la mano del deportista. Posteriormente,
se buscará que el modelo tenga una forma orgánica y ergonómica que puedan acoplarse a la mano; para
ello se utilizarán programas que trabajen con superficies B-Splines Racionales No Uniformes (NURBS,
Non-Uniform Rational B-Splines), las cuales son estándares para los sistemas de Diseño Asistido por
Computadora (CAD) y de Manufactura Asistida por Computadora (CAM) [9].
291
CONCLUSIONES
El diseño de una órtesis paramétrica involucra el desarrollo de una alta personalización ya que tanto las
dimensiones y requerimientos de los usuarios son muy diversos y exigentes. Para el caso de este proyecto
la órtesis será utilizada en el ámbito deportivo y esto conlleva también una adecuada selección del proceso
de fabricación y de los materiales a utilizar, ya que la órtesis deberá soportar cargas dinámicas y además
absorber impactos con el aro de avance de la silla de ruedas. En cuanto al desarrollo digital, hasta este
parte de la investigación se logró obtener un modelo físico idéntico a las órtesis fabricadas por los
deportistas, las cuales ya han sido probadas en competencias y no causan molestias o lesiones. El modelo
físico fue digitalizado por medio de un escáner 3D, con la intención de obtener un modelo virtual que se
pudiera modificar y analizar para determinar las formas de parametrizarlo. La parametrización será la
siguiente etapa de la investigación, para ello se considera que el utilizar geometrías primitivas de los
modelados en 3D podría sería una opción viable, ya que para modificar estas formas geométricas se
introducen valores numéricos que producen cambios en las dimensiones del modelo virtual. Considerando
tanto las geometrías primitivas en conjunto con superficies NURBS en el diseño paramétrico se pretende
llegar forma óptima de la órtesis, la cual una vez obtenido el prototipo final será fabricado por medio de
manufactura aditiva. Las ventajas de este proceso de deposición de material resultan adecuadas ya que
por un lado es un proceso de prototipo rápido y por otro, en la manufactura aditiva es posible controlar la
direccionalidad en la que se deposita el material; lo cual resulta importante ya que la resistencia mecánica
se puede incrementar si se selecciona correctamente la orientación o anisotropía. Actualmente la
tecnología de la manufactura aditiva está desarrollándose de manera acelerada; las innovaciones en
nuevos materiales y en extrusores que pueden hacer la deposición de varios tipos de filamento en la misma
pieza de impresión, proporciona un excelente panorama para la fabricación de productos altamente
personalizados.
Finalmente se hace hincapié en que este proyecto tiene un enfoque social al considerar a los deportistas
con diferentes capacidades.
AGRADECIMIENTOS
Fábrica de Silla de Ruedas Industrias Lince S.A. de C.V. por todas las facilidades y apoyo otorgado para
desarrollar productos centrados en el usuario.
REFERENCIAS
[1] F. Montane and J. Muñoz, “EL DESARROLLO DE LA PROTÉSICA A LO LARGO DE LA
HISTORIA HUMANA.,” International Society Prostnetics and Orthotics, pp. 9–12, Aug. 2018. [Online].
Available: https://www.researchgate.net/publication/ 344321505
292
[2] J. Redford, J. Basmajian, and Trautman P., Orthotics: Clinical Practice and Rehabilitation Technology.
New York: Churchill Livingstone, 1995.
[3] M. Fraile, “EL NUEVO PARADIGMA CONTEMPORÁNEO. DEL DISEÑO PARAMÉTRICO A
LA MORFOGÉNESIS DIGITAL,” Teoría de la arquitectura en la contemporaneidad, pp. 2–11, 2014.
[4] A. Lekuona, M. Domínguez, and M. Espinosa, “El diseño paramétrico como herramienta creativa en
diseño de producto,” Técnica Industrial, pp. 32–40, Jul. 2021. doi: 10.23800/10507.
[5] F. García, La investigación tecnológica, PRIMERA. México: Limusa Noriega Editores, 2005.
[6] R. A. Cooper and A. J. de Luigi, “Adaptive sports technology and biomechanics: Wheelchairs,” PM
and R, vol. 6, no. 8 SUPPL., 2014, doi: 10.1016/j.pmrj.2014.05.020.
[7] B. Hallgrimsson, Prototyping and modelmaking for product design. Laurence King Pub, 2012.
[8] Institute of Electrical and Electronics Engineers. Karachi Section and Institute of Electrical and
Electronics Engineers, 2019 Second International Conference on Latest trends in Electrical Engineering
and Computing Technologies (INTELLECT). [9] Mateus S., “NURBS Fitting to a Regularized
Quadrilateral Mesh,” Revista Avances en Sistemas e Informática, Bogotá Colombia, pp. 117–124, Dec.
06, 2007. Accessed: Mar. 25, 2022. [Online]. Available:
http://www.redalyc.org/articulo.oa?id=133115019 004.
293
Semblanza de los Editores
Alma Rosa García Gaona es directora general del Consejo Nacional de Acreditación en
Informática y Computación, A.C. (CONAIC). Cuenta con la licenciatura en Estadística
(1982) de la Universidad Veracruzana, Maestría en Ciencias de la Computación (1996)
de la Universidad Nacional Autónoma de México, Grado de Doctor en Educación
Internacional con especialidad en Tecnología Educativa (2004) de la Universidad
Autónoma de Tamaulipas. Obtuvo el Premio al Decano 2012, máxima distinción que
otorga la Universidad Veracruzana. Ha publicado diversos capítulos de libros, artículos
en revistas y congresos de reconocido prestigio, en las áreas de ingeniería de software,
bases de datos y educación.
Francisco Javier Álvarez Rodríguez es profesor asociado de Ing. de Software de la
Universidad Autónoma de Aguascalientes. Tiene una licenciatura en Informática
(1994), una maestría (1997) de la Universidad Autónoma de Aguascalientes, un grado
EdD del Instituto de Educación de Tamaulipas, México y es Ph(c) de la Universidad
Nacional Autónoma de México. Ha publicado artículos de investigación en varias
conferencias internacionales en los temas de e-Learning e Ing. de Software. Sus
intereses de investigación son la Ing. de Software para el ciclo de vida de las pequeñas
y medianas empresas y el proceso de Ing. de Software para e-Learning.
La M. en C. Ma. de Lourdes Sánchez Guerrero es profesor investigador Titular “C” en
la Universidad Autónoma Metropolitana con estudios de Lic. en Computación en la
UAM-Iztapalapa y Maestría en Ciencias de la Computación en la UAM-Azcapotzalco. Es
la Presidenta de la Asociación Nacional de Instituciones de Educación en Tecnologías de
la Información A.C. (ANIEI). Es miembro de los comités: Comité de Acreditación del
Consejo Nacional de Acreditación de Informática y Computación (CONAIC).
Representante de México en el Centro Latinoamericano de Estudios en Informática
CLEI.
294
View publication stats
AGRADECIMIENTOS
Lic. Carlos Umaña Trujillo, Director General, Alfa Omega Grupo
Editor S.A. de C.V.
IMPRESIÓN:
ALFA OMEGA GRUPO EDITOR S.A. DE C.V.
DERECHOS RESERVADOS:
Asociación Nacional de Instituciones de Educación en Tecnologías de la
Información A.C.
294 páginas, Transformación Digital: Avances y paradigmas tecnológicos
ISBN: 978-607-538-797-0

Más contenido relacionado

PDF
Prospectiva de las profesiones y el uso de TIC. El ejercicio de la abogacía p...
PDF
Retos y oportunidades de la IA en I+D+i con empresas
PDF
Plan de apropiación de tic unimagdalena enfoque cetep samuel prieto con dibuj...
PDF
Construcción de la identidad digital de los estudiantes universitarios.pdf
PDF
Lineas de investigación de la primer reunión de la Red Temática en TICA
PDF
Perspectivas de las tic educare
PDF
Instituto tecnológico superior de Jesús Carranza, tics
PDF
libro_construyendo_el_software_del_futuro
Prospectiva de las profesiones y el uso de TIC. El ejercicio de la abogacía p...
Retos y oportunidades de la IA en I+D+i con empresas
Plan de apropiación de tic unimagdalena enfoque cetep samuel prieto con dibuj...
Construcción de la identidad digital de los estudiantes universitarios.pdf
Lineas de investigación de la primer reunión de la Red Temática en TICA
Perspectivas de las tic educare
Instituto tecnológico superior de Jesús Carranza, tics
libro_construyendo_el_software_del_futuro

Similar a Libro_transformacion21.docx (20)

PDF
CD11
DOC
GRID COMPUTING
PPTX
Tics en la educacion enero 2012
PDF
Plan-de-Area-TECNOLOGIA-2024-BACHILLERATO.pdf
PDF
catalago de software
PDF
Tis, Tecnologias de la Sociedad de la Informacion
PPT
Presentacion eme atei conceptos basicos mar 29 2012
PDF
Pdf Propuesta Pedagogica Para Materializacion
PDF
Cuaderno76-2
PDF
Cuaderno76-2
PDF
Crear y publicarconlastic
PDF
crear publicaciones
PDF
Temario sistemas programables
PDF
Sistemas programables
PPTX
La IEEE Computer Society
PDF
Fundamentación teórica y metodológica de un cuestionario “Perfil del estudian...
PDF
Grandes retos primer reunion
PDF
Ventana informatica 29
PDF
PDF
Las tic en la educacion superior
CD11
GRID COMPUTING
Tics en la educacion enero 2012
Plan-de-Area-TECNOLOGIA-2024-BACHILLERATO.pdf
catalago de software
Tis, Tecnologias de la Sociedad de la Informacion
Presentacion eme atei conceptos basicos mar 29 2012
Pdf Propuesta Pedagogica Para Materializacion
Cuaderno76-2
Cuaderno76-2
Crear y publicarconlastic
crear publicaciones
Temario sistemas programables
Sistemas programables
La IEEE Computer Society
Fundamentación teórica y metodológica de un cuestionario “Perfil del estudian...
Grandes retos primer reunion
Ventana informatica 29
Las tic en la educacion superior
Publicidad

Último (20)

PDF
ekos contruccion one central park losa colaborante tuberia inoxidable
PPTX
7ma sesion de clase de produccion de cuyes y conejos.....pptx
PDF
Act. 2.1 Recursos Naturales y su Clasificación..pdf
PPTX
11avo sesion de clase de produccion de cuyes y conejos.....pptx
PDF
6o. del 23al 27 de junio 2025_120359.pdf
PPTX
El-Ingles-Una-Lengua-Directamente-Derivada-del-Latin.pptx
PDF
Tema 5.pdfdjdjsjsjshdbsjsjsjsjsjsjsjsjsjsjsj
PPTX
Folleto_Ecosistemas_Juveniles y ambiente .pptx
PPTX
Dispensaciones la garcia, el gobierno humano, etc
PDF
Calendario socio productivo Baré ultimo.pdf
PDF
AMTD-609_FORMATOALUMNOTRABAJOFINAL602.pdf
PDF
Arquitectura Expresionista, ARQUITECTURA
PPTX
Taller tesis salud para estudiantes egresadas
PPTX
Presentación de resumen del producto.pptx
PPTX
CONSTRUCCION DE MAQUINA ESCUADRADORA ..pptx
PDF
un power point de minecraft, no está terminado.
PPTX
Derechos Reales Unidad ix facultad de con
PDF
Cuidado para el Desarrollo Infantil _Certificado de participación (1).pdf
PDF
Semana del 30 de junio al 04 de julio de 2025.pdf
PDF
PLANO IE0097 PANTRICIA ANTONIA LOPEZ.pdf
ekos contruccion one central park losa colaborante tuberia inoxidable
7ma sesion de clase de produccion de cuyes y conejos.....pptx
Act. 2.1 Recursos Naturales y su Clasificación..pdf
11avo sesion de clase de produccion de cuyes y conejos.....pptx
6o. del 23al 27 de junio 2025_120359.pdf
El-Ingles-Una-Lengua-Directamente-Derivada-del-Latin.pptx
Tema 5.pdfdjdjsjsjshdbsjsjsjsjsjsjsjsjsjsjsj
Folleto_Ecosistemas_Juveniles y ambiente .pptx
Dispensaciones la garcia, el gobierno humano, etc
Calendario socio productivo Baré ultimo.pdf
AMTD-609_FORMATOALUMNOTRABAJOFINAL602.pdf
Arquitectura Expresionista, ARQUITECTURA
Taller tesis salud para estudiantes egresadas
Presentación de resumen del producto.pptx
CONSTRUCCION DE MAQUINA ESCUADRADORA ..pptx
un power point de minecraft, no está terminado.
Derechos Reales Unidad ix facultad de con
Cuidado para el Desarrollo Infantil _Certificado de participación (1).pdf
Semana del 30 de junio al 04 de julio de 2025.pdf
PLANO IE0097 PANTRICIA ANTONIA LOPEZ.pdf
Publicidad

Libro_transformacion21.docx

  • 1. SEE PROFILE See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/361592450 Diseño de un sistema de monitoreo para senderos seguros en áreas naturales protegidas y su relación ante la pandemia COVID 19 Chapter · December 2021 CITATIONS 0 READS 857 5 authors, including: Carlos Jesahel Vega Gómez University of Guadalajara CU Tlajomulco 30 PUBLICATIONS 5 CITATIONS Alberto Coronado University of Guadalajara 26 PUBLICATIONS 133 CITATIONS Mónica Camas University of Guadalajara 5 PUBLICATIONS 10 CITATIONS Some of the authors of this publication are also working on these related projects: Micro grids View project Diseño de un sistema de monitore para senderos seguros en áreas naturales protegidas y su relación ante la pandemia COVID 19 View project All content following this page was uploaded by Carlos Jesahel Vega Gómez on 28 June 2022. The user has requested enhancement of the downloaded file. SEE PROFILE SEE PROFILE
  • 2. 1 Transformación Digital: Avances y paradigmas tecnológicos
  • 3. 2 EDITORES:  M. en C. Ma. de Lourdes Sánchez Guerrero.  Dra. Alma Rosa García Gaona.  Dr. Francisco Javier Álvarez Rodríguez. EDITORIAL: ALFA-OMEGA GRUPO EDITOR S.A DE C.V. ISBN: 978-607-538-797-0 LUGAR: MEXICO, CIUDAD DE MÉXICO. FECHA DE PUBLICACIÓN: DICIEMBRE DE 2021
  • 4. 3 Índice Prólogo 5 Introducción 6 Comité Revisor 7 I. Analítica 10 Aplicación web para análisis de comentarios sobre la calidad de servicios turísticos de Cancún 11 Aplicación web para análisis de comentarios sobrela calidad de servicios turísticos de Cancún 19 Algoritmos Machine Learning (ML): Predicción de casos SARS-CoV-2 en Bolivia 27 II. Competencias en TIC 42 Estudio de riesgos cibernéticos y los medios de seguridad que utiliza el control parental en los adolescentes del sexto semestre de preparatoria del Colegio Diego Rivera de Tuxtla Gutiérrez, Chiapas. 43 Diseño de instrumento para evaluar el pensamiento computacional en alumnos de ingeniería que cursan la asignatura de Programación 51 III. Cómputo en la Nube 59 Monitoreo de la actividad física o reposo de pacientes mediante el uso de sensores y servicios en la nube _ 60 IV. Cómputo Móvil 68 Asistente GC: Asistente Colaborativo Móvil para la Gestión de Congresos o Ponencias 69 V. Educación en TI 75 Caso de estudio de la preferencia de modelo educativo y uso de TIC para evaluar la implementación de un modelo de aula invertida 76 La estrategia de la formación continua en apoyo a las competencias de la profesión 85 Análisis cuantitativo del uso de recursos tecnológicos en la Plataforma Moodle 92 Tecnología móvil para la educación de la salud en tiempos de pandemia en estudiantes de Media Superior 98 El reto de enseñar tecnologías de alto desempeño en modalidad virtual derivado de la contingencia sanitaria. Caso de estudio: Licenciatura en Ingeniería en Ciencias Computacionales del Centro Universitario de Tonalá, Universidad de Guadalajara 104 Uso de Realidad Aumentada como estrategia en el Aprendizaje de Historia de México en Secundaria 110 Tendencias, impacto de COVID-19 y pronósticos de crecimiento de la realidad mixta en la educación. 124 VI. E-educación 131 Propuesta de APP como herramienta de enseñanza para niños con el trastorno del espectro autista 132 Aplicación Web de apoyo a la enseñanza del Álgebra utilizando el Modelo de Áreas basada en el paradigma de componentes de software 139 Laboratorio basado en Web Multimedia de apoyo a la enseñanza de Fracciones fundado en componentes de software 149 Objeto de aprendizaje para la enseñanza de las estructuras de repetición utilizando dispositivos móviles y realidad aumentada 158 VII. E-Learning 165 Modelo Instruccional Basado en Inteligencias Múltiples 166 B-learning de Derechos Humanos 177 VIII. Ingeniería de Software 183 Generador de un modelo 3D a partir de fotografías utilizando como caso de prueba una tienda virtual 184
  • 5. 4 Tarjetas de Presentación Digitales a través de Herramientas de Desarrollo Multiplataforma 191 Proceso de desarrollo de software en empresas mexicanas 199 IX. Innovación en TIC 207 Plataforma digital para Facilitar el Acceso a la Información sobre Estrategias para Reutilizar Productos Comerciales 208 X. Inteligencia Artificial 214 Análisis de Ciberataques en una Ciudad Inteligente utilizando Dispositivos IoT e Industria 4.0 215 Ciencia de datos y predicción para el análisis del futuro climático 221 Sistema de clasificación multiclase para lesiones dermatológicas ideal para Queratosis Actínica 226 XI. Investigación en TIC 234 Limitations experimented by undergraduates in Stem careers, during the production of scientific reports. Case study in Panamanian public universities 235 XII. Mejores prácticas y estándares 242 Estudio comparativo sobre el rendimiento de los lenguajes de programación Java y Python en diferentes SBC 243 Proyecto tiempo-acción: modelo de desarrollo de software, PETAL 249 XIII. TIC y responsabilidad social 255 Diseño de un sistema de monitoreo para senderos seguros en áreas naturales protegidas y su relación ante la pandemia COVID 19. 256 El uso de Blockchain como generador de innovacion en la transparencia y eficiencia en instituciones. 265 XIV. Vehículos Autónomos 271 Modelo basado en visión por computadora para detecciónde carriles viales para la autonomía de vehículos272 Diseño de órtesis paramétrica para corredores de pista en silla de ruedas 280 Semblanza de los Editores 293 AGRADECIMIENTOS 294
  • 6. 5 Prólogo Desde 1982 a la fecha, la Asociación Nacional de Instituciones de Educación en Tecnologías de la Información, A. C., (ANIEI), congrega a más de 100 instituciones que ofrecen programas educativos relacionados al área de la Computación e Informática del país. Dentro de sus objetivos tiene el de “Orientar, proponer y difundir las actividades que en materia de docencia, investigación y extensión educativa se realizan en el área de informática”, así como el de “analizar los problemas relacionados con la enseñanza de la informática, proponer soluciones y colaborar en su implantación”, para lo cual cuenta con dos eventos muy importantes que se han vuelto tradición para coadyuvar al cumplimiento de sus objetivos: 1) Congreso Nacional e Internacional de Informática y Computación de la ANIEI (CNCIIC) y 2) Reunión Nacional de Directivos de Informática y Computación, que cada año se organizan teniendo como sede alguna de las instituciones asociadas, el primero se lleva a cabo en Octubre y el segundo en Junio. El libro “Transformación Digital: Avances en los paradigmas tecnológicos”, organizado en catorce capítulos, presenta productos tecnológicos que resuelven problemas reales del transporte público, basados en sistemas de información geográfica, por ejemplo, utilizando principios de usabilidad, o herramientas de realidad virtual hasta realidad aumentada esta última para apoyo a personas débiles visuales y videojuegos aplicados a la educación. Así mismo, el libro aborda temáticas de corte de investigación aplicada que tienen que ver con el diseño semiautomático de estructuras óptimas o utilización de técnicas de inteligencia artificial para resolver problemas de ruteo hasta una propuesta de arquitectura avanzada para arquitectura web educativa usando la web semántica. Los autores y participantes en los capítulos de esta obra resultado de trabajos de investigación desarrollados por académicos, que provienen de diversas universidades y centros de educación superior reconocidos del país y de instituciones extranjeras, y de asociaciones de la industria del software, tales como la Universidad Autónoma de Aguascalientes, Universidad de Guadalajara, Universidad Autónoma Metropolitana, Benemérita Universidad Autónoma de Puebla, Facultad Ciencias Técnicas y Empresariales Universidad de Sancti Spíritus José Martí Pérez, Instituto Tecnológico Superior de los Ríos, Tecnológico Nacional de México-Instituto Tecnológico de Estudios Superiores de Zamora, Universidad Autónoma de Baja California Sur, Universidad Autónoma de Baja California-Facultad de Ciencias Marinas, Universidad Autónoma de Querétaro, Universidad de Colima, Universidad de Guadalajara-CUCEI, Universidad Tecnológica del Suroeste de Guanajuato, Universidad Veracruzana, entre otras. Cabe señalar que esta obra representa un esfuerzo que la ANIEI hace para publicar a través de la editorial ALFA OMEGA, lo que los directivos asociados a la ANIEI han analizado y propuesto para mejorar y actualizar el quehacer de sus programas educativos, siempre tendiendo a la calidad de los mismos.
  • 7. 6 Introducción Este libro tiene como objetivo presentar los principales avances del desarrollo tecnológico e investigación para las áreas de tecnologías de la información y comunicación en México. Este trabajo es el resultado de investigadores, alumnos y grupos a lo largo del país que tiene como principal característica trabajos colaborativos que incluyen a los alumnos de los diferentes programas educativos relacionados con la temática. Los capítulos se organizaron en catorce capítulos que agrupan distintos temas de interés actual, relacionados con alternativas tecnológicas de enseñanza, analítica, competencias en TIC, cómputo en la nube, cómputo Móvil, educación en TI, e-educación, e-Learning, ingeniería de software, innovación en TIC, Inteligencia Artificial, investigación en TIC, mejores prácticas y estándares, TIC y responsabilidad social y vehículos autónomos. El resultado de las mesas de trabajo es también una pauta para generar el plan de trabajo anual de la ANIEI y el rumbo de esta, siempre acorde a sus objetivos para beneficio de los programas educativos en TIC, de las instituciones educativas asociadas. Esta obra es el de la ANIEI para publicar el trabajo de las mejores prácticas y tendencias del quehacer de los programas educativos en TIC en México, tomando en consideración las tendencias regionales, nacionales e internacionales.
  • 8. 7 Comité Revisor Institución Nombre Completo Benemérita Universidad Autónoma de Puebla Edna Iliana Tamariz Flores Carlos Zamora Lima María del Carmen Santiago Díaz Carlos Armando Ríos Acevedo María Teresa Torrijos Muñoz Lilia Mantilla Narváez Nelva Betzabel Espinoza Hernández Gustavo Trinidad Rubín Linares María del Consuelo Molina García Ana Claudia Zenteno Vázquez Luis Carlos Altamirano Robles Guillermina Sánchez Román Yalu Galicia Hernández Instituto Tecnológico Superior de Coatzacoalcos Patricia Guadalupe Gamboa Gutiérrez Universidad Autónoma de Aguascalientes Francisco Javier Álvarez Rodríguez Universidad Autónoma de Baja California Evelio Martínez Martínez Omar Álvarez Xochihua Alma Rocio Cabazos Marin Universidad Autónoma de Nayarit Dr. Víctor Javier Torres Covarrubias Mtro. Gabriel Zepeda Martínez Mtro. Raudel López Espinoza Mtra. Mónica Salcedo Rosales Mtro. Alejandro Granados Magaсa Ing. Carlos David Ortiz Hernández Universidad Autónoma de Yucatán Dr. Raúl Antonio Aguilar Vera Dr. Juan Pablo Ucan Pech MTI. Julio Cesar Díaz Mendoza MSC. Gabriela Solís Magaña Universidad de Colima Armando Román Gallardo Manuel Pastor Villaseñor Hernández Pedro Damián Reyes
  • 9. 8 María Andrade Arechiga Félix Ortigosa Martínez Osval Antonio Montesinos López Jorge Rafael Gutiérrez Pulido Erika Margarita Ramos Michel Carlos Alberto Flores Cortes Omar Álvarez Cárdenas Raymundo Buenrostro Mariscal Ricardo Acosta Díaz José Román Herrera Morales Juan Manuel Ramírez Alcaraz Juan José Contreras Castillo Sara Sandoval Carrillo Universidad de Guadalajara Jorge Lozoya Arandia Edna Minerva Barba Moreno José Guadalupe Morales Montelongo José Antonio Orizaga Trejo María Elena Romero Gastelu Universidad de Ixtlahuaca MATI. Karina Balderas Pérez Ing. Jesús Namigtle Jiménez M. en C. Jorge Edmundo Mastache Mastache Ing. César León Ramírez Chávez Universidad del Caribe David Israel Flores Granados Universidad Nacional Autónoma de México- FES Acatlán Christian Carlos Delgado Elizondo Georgina Eslava García Mauricio Rico Castro Mayra Olguín Rosas Adalberto López López Adriana Dávila Santos Nora Goris Mayasn Luz María Lavin Alanis Maricarmen González Videgaray Rubén Romero Ruiz
  • 10. 9 José Gustavo Fuentes Cabrera Francisco Javier López Rodríguez Miguel Ángel Guadarrama García Eduardo Eloy Loza Pacheco Universidad Veracruzana Patricia Martínez Moreno José Antonio Vergara Camacho Javier Pino Herrera
  • 12. 11 Aplicación web para análisis de comentarios sobre la calidad de servicios turísticos de Cancún Web application for analysis of comments on the quality oftourist services in Cancun Nancy Aguas García (naguas@ucaribe.edu.mx); Esteban Ramón Hernández Valencia (150300092@ucaribe.edu.mx), MartínJavier Ayala Miranda (150300081@ucaribe.edu.mx) y Sebastián Jiménez Puya (150300091@ucaribe.edu.mx) Departamento de ciencias básicas e ingenierías, Universidad del Caribe,Esquina Fraccionamiento, Tabachines, 77528 Cancún, Q.R. México. Resumen. Cancún es una ciudad con un crecimiento turístico promedio del 2% anual, por consiguiente, esto ha llevado a la creación de planes de estudio relacionados al turismo y gastronomía, específicamente en la Universidad del Caribe, los que a su vez integran asignaturas y proyectos para la evaluación de la calidad y mejora de los servicios turísticos. Debido al formato en que se realizan, se invierte al menos 2 horas para realizar el levantamiento de información y 2 horas para la integración gráfica. Este proyecto aborda el desarrollode una plataforma que, utilizando las metodologías SCRUM y CRISP-DM así como técnicas de web scraping y de análisis y procesamiento de grandes volúmenes de datos, obtiene las reseñas online de hoteles y/o restaurantes y permite generar reportes sobre la calidad de los servicios de los mismos; La aplicación reduce y optimiza el tiempo de generación de reportes. Palabras clave: extracción, reseñas, calidad, servicio, análisis, sentimientos. 1. Introducción Año con año la ciudad de Cancún, México recibe una cantidad impresionante de turistas, los cuales dejan mucha información sobre su experiencia en este destino, como lo son comentarios y/o reseñas sobre el servicio brindado en hoteles, restaurantes, parques, transporte, etc. Por consiguiente, se pretende que, mediante un correcto tratamiento de información y análisis estadístico de los grandes volúmenes de datos quelos turistas “dejan” en las plataformas virtuales, se pueden detectar patronesque permitan generar conclusiones y decisiones acerca de cómo se está gestionando el sector turístico en la ciudad. Y en base a estos, formular estrategias que puedan ser implantadas en los programas educativos de la Universidad del Caribe relacionados al turismo, de manera que el estudiantesea consciente de la situación actual y sea capaz de identificar áreas de oportunidad para solventar dichos problemas detectados de primera fuente. Contribuyendo así a mejorar la calidad del destino.
  • 13. 12 2. Estado del arte Diversos autores han estudiado técnicas y herramientas para la gestión y análisis de grandes volúmenes de datos, tal es el caso de Moine J., Haedo A., & Gordillo S. que en el año 2011 realizaron un estudio denominado “Análisis comparativo de metodologías para la gestión de proyectos de minería de datos” en donde el congreso argentino de ciencia de la COMPI realizó dicho análisis comparando las siguientes metodologías: KDD, CRISP-DM, SEMMA y Catalyst, derivado de dicho artículo se puede concluirque la metodología que mejor se acopla a nuestro proyecto es el CRISP-DMya que en el comienzo se tiene que realizar un análisis del negocio y del problema organizacional así como que contemplan el análisis y comprensióndel problema antes de comenzar el proceso de minería. Otro estudio realizado en el mismo año pero esta vez en la Universidad de Columbia, New York denominado “Análisis de sentimientos en datos de Twitter” por los autores Agarwal A, Xie B., Vovsha L. , Rambow O., & Passonneau R. Se enfocó en construir modelos para dos tareas de clasificación específica: clasificar comentarios en positivos o negativos, y clasificar comentarios en positivos, negativos o neutros todos ellos de la plataforma Twitter. Para ello, se usaron tres modelos específicos por separado, y después, una combinación de estos para incrementar el desempeño. Estos fueron: un modelo unigramático, un modelo basado en características y un modelo basado en un árbol de kernels. En el 2018, en Indonesia, el autor Hermanto DT, realizó un estudio llamado Twitter Social Media Sentiment Analysis in Tourist Destinations Using Algorithms Naive Bayes Classifier donde se usó el clasificador de Naive Bayes, para analizar comentarios de Twitter sobre los destinos turísticos en este país, y habla de cómo fueron pre-procesados los comentarios para estar listos a ser ingresados al clasificador de Bayes. Y su hallazgo fue que este clasificador les fue de ayuda para determinar que la opinión pública sobre los destinos turísticos era mayormente positiva, y se concluye que este clasificador es muy bueno para este tipo de propósitos. 3. Metodologías empleadas La investigación emplea un conjunto de metodologías y herramientas informáticas para la minería y análisis de la información, que permitirán realizar la búsqueda, extracción, preprocesado, análisis y postprocesado de los datos, así como metodologías para la gestión de proyectos de software yde minería de datos las cuales se describen seguidamente: 3.1 SCRUM Es un marco dentro del cual las personas pueden abordar problemas complejos de adaptación, mientras entregan de forma productiva y creativa productos del mayor valor posible. Se usó la metodología para poder hacer entregas de valor de la aplicación web al departamento de turismo y así poder tener mejor feedback del mismo. Asimismo esta metodología se centra en dividir el proyecto en subtareas más pequeñas para poder hacerlas en equipos pequeños.
  • 14. 13 3.2 CRISP-DM Para la parte de minería de datos del proyecto se llevará la metodología de CRISP-DM, esta metodología se eligió ya que describe las tareas de cada fase del proceso e incorpora actividades para la gestión del proyecto; así también, como una fase de inicio tiene la compresión del negocio que ayudaa determinar hacia dónde se quiere dirigir la información que se obtenga de la minería. 3.3 Servicio RestFul de análisis de datos Con la finalidad de separar el análisis de la información obtenida en el web scraping y que a la vez fuera funcional e independiente para ser consultado desde cualquier cliente, se desarrolló una API REST que mediante peticiones HTTP devolviera el recurso requerido en cuestión para posteriormente ser desplegado por el cliente en forma de tablas, gráficas, etc. Debido a la necesidad de utilizar un lenguaje especializado en tareas deData Science como el análisis de los datos, análisis de sentimientos, etc. Como lo es Python, se decidió usar Flask RESTful, la cual es una extensión del micro framework de python Flask que permite crear aplicaciones restful minimalistas y escalables. Algunas de las ventajas que nos brinda este framework son la capacidad de decidir nuestra propia arquitectura ya que al ser extremadamente minimalista no tiene una arquitectura o scaffolding predefinido para el desarrollo por lo que ofrece la libertad de construir todo prácticamente desde cero, controlando todo lo que sea necesario. Y esto siempre cuidando que la API cumpla con los requerimientos y reglas que REST dictamina. 3.3.1 Criterios para el diseño de la API Hay ciertos criterios que se tienen que tomar en cuenta a la hora de crear API’s rest, uno de estos dictamina que todo recurso en la base de datos debe tener un identificador denominado URI (Uniform Resource Identifier) la cual se puede ver desde el aspecto HTTP como una URL que apunta hacia un recurso de nuestra base de datos. Existen ciertas reglas y buenas prácticas para la asignación de nombres de dichas URI, sin embargo, no se entrará en detalle en este aspecto, pero lo que es importante destacar es que estas están pensadas para sistemas de información con bases de datosrelacionales, ahora bien, lo interesante y el reto de esto ha sido el poder adaptar el funcionamiento de una API para trabajar como una API restful de Data Science la cual pueda realizar un análisis específico de la información dependiendo la URI con la que se consulte. Así pues, para la asignación de recursos se hizo un análisis previo con el fin de responder a la pregunta: en una API de Data Science ¿Qué es un recurso? Un recurso en una API convencional podría ser un registro en la base de dados por ejemplo, pero en este caso en particular eso no nos aporta ningún valor, debido a esto, se llegó a la conclusión de que un recurso representaría el resultado de hacer alguna tarea de análisis de datos o manipulación de la información, así puestoda información que el cliente necesitase conocer representaría un recurso y por ende podría acceder a él mediante la petición correspondiente. Tomemos el ejemplo de que el cliente quiere conocer de cuáles hoteles se dispone información dentro de la base de datos y cuántos comentarios se tienen por hotel, ordenando estos de mayor a menor en base al número de comentarios. La respuesta es una URI que permita mediante un correcto nombramiento acceder a esta información como la de a continuación: localhost:5000/hotels/popularity
  • 15. 14 donde “hotels” representa el recurso “hoteles” y “popularity” el número de reseñas, asumiendo que mientras más reseñas tenga un hotel significa que este es más popular al haber recibido más visitas. Tomemos otro ejemplo esta vez con una serie de tiempo, en donde el cliente necesita conocer cuantos comentarios positivos, negativos y neutros tuvo cada hotel por año. Para ello, la URI debe representar un recurso que presente la información necesaria para graficar dicha serie de tiempo resultante del análisis de los datos. A lo cual se tiene las siguiente: localhost:5000/hotels/popularity/distribution/yearTimeSeries donde “distribution” representa el número de comentarios positivos, neutrosy negativos que se tienen por hotel y “yearTimeSeries” significa esta misma distribución, pero esta vez a lo largo de los años. Es importante destacar que, según las reglas Rest, una url no debe pertenecer a una acción en concreto sino a un recurso. En este caso pareciera que al pedir hacia algunos de los endpoints mencionados anteriormente se estuviera pidiendo una acción, sin embargo, aquí es dondejuega un papel importante las convenciones de nomenclatura de API’s ya que hay una diferencia sutil entre pedir a la API que realice un resumen por del número de comentarios por hotel a indicarle que me devuelva la popularidad de dichos hoteles, la diferencia es muy sutil pero de esta forma se ha conseguido permanecer dentro del estándar rest de representación derecursos. De esta forma la API funciona bajo el concepto de una caja negra a la cual le pedimos algo, y nos devuelve un resultado sin necesidad de conocer su implementación y procesos por detrás. Para el deploy de la API se utilizó una máquina virtual de Debian ejecutada desde la plataforma como servicio de computación en la nube Heroku, así pues, el dominio asignado al servicio rest fue el siguiente: https://reviewscaribe.herokuapp.com/ De esta forma la composición de la url se forma con el nombre del dominio de nuestro servicio más la uri hacia nuestro recurso específico, por ejemplo: https://reviewscaribe.herokuapp.com/hotels/popularity/distribution Nombre del dominio del servidor URI 3.3.2 Arquitectura Hexagonal Debido a las características del microframework Flask, para el diseño de la arquitectura de la API, pensando en la flexibilidad y escalabilidad se decidió utilizar una adaptación basada en la arquitectura denominada “Arquitectura hexagonal”, la cual contempla la división del software en tres grandes áreas o capas con su propia responsabilidad: aplicación, dominio e infraestructura.Donde cada una de estas se encarga de gestionar una parte específica de la aplicación como a continuación se describe: Aplicación: Esta área se encarga de gestionar y coordinar todos los elementos de la aplicación. No contiene lógica de negocio ni mantiene el estado de los objetos de negocio. Es responsable de mantener el estado de
  • 16. 15 Data Base[ Collection (Nombre de la plataforma web) { _id: 'Identificador único del comentario', review_body: 'Comentario del usuario', review_date: 'Fecha que se realizó el comentario', hotel_name: 'Nombre del hotel al que corresponde el comentario',rating: 'Calificación que se le dio al comentario en caso de tenerlo' } la aplicación y del flujo de esta. En la capa de aplicación se gestionaron los casos de uso donde estos se encargaban de conectar los servicios de dominio e infraestructura encargados de realizar el análisis de los datos y reportar informes de estos respectivamente. Dominio: La capa de dominio es la encargada de gestionar toda la lógica de negocio de la aplicación, es la encargada de definir los contratos o puertos, representados en la programación orientada a objetos por interfaces, que serán usados en la capa de infraestructura mediante adaptadores que implementarán la interfaz se acuerdo al tipo de tarea que realizarán. Permitiendo así conectar la lógica de negocio con el resto de la aplicaciónsin necesidad que una capa dependa de otra. A su vez, en esta capa se definieron los servicios de dominio encargados de realizar el filtrado de la información dependiendo la lógica de negocio que envolviese a ese caso de uso concreto. Infraestructura: Esta capa gestiona la comunicación de la aplicación con el exterior, es la encargada de persistir la información en la base de datos, de realizar envíos de notificaciones, emails, etc. Todo proceso que requiera comunicación desde la aplicación hacia el exterior sale a partir de la capa deinfraestructura. Debido a la naturaleza de la API, al no hacer persistencia en base de datos, esta capa se reservó únicamente para la generación de reportes en formatos xlsx, los cuales son una forma de persistencia y envío de datos con el exterior, lo cual es responsabilidad de la capa de infraestructura. Al hacer esta separación por responsabilidades, se consigue que estas evolucionen de manera aislada, además de facilitar la reutilización. 4. Resultados experimentales 4.1 Base de datos En el diseño de la base de datos se empezó usando la metodología de CRISP-DM en las fases de comprensión del modelo de negocio y comprensión de los datos; para esto, se inició con una búsqueda de diferentes páginas donde se pudieran poner y obtener comentarios de hoteles en Cancún; algunas aplicaciones que se están usando son TripAdvisor, Twitter y Google maps. Con base en esta información, seseleccionaron los elementos de los comentarios que serían útiles de acuerdo a los requerimientos del beneficiario, para esto se procedió a hacer un contraste entre las plataformas para ver qué elementos compartían las páginas y en cuáles difieren, para así poder seleccionar los de mayor relevancia.
  • 17. 16 def scrape(url, lang='en'): # Crea session para tener todas las cookies entre requests session = requests.Session() session.headers.update({ 'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64;rv:57.0) Gecko/20100101 Firefox/57.0', }) # Obtiene todos los comentarios de los comentarios de un hotel o restaurante de TripAdvisor # a través de la url de la página. items = parse(session, url + '?filterLang=' + lang) return items 4.2 Web Scraping Como segundo paso , preparación de datos, se creó un Web Scraping que obtenga los datos de las páginas web y los almacenará en la base de datos usando el esquema que se diseñó. El web scraping se dividió en diferentes scripts para cada página web, ya que todas tienen diferente formato para obtener los elementos deseados. El primer script que se trabajó fue el de TripAdvisor, se realizó una búsqueda de algoritmos que nos ayudará obtener la información deseada demanera más rápida, así mismo se encontró un algoritmo que se acopla a lo que necesitábamos, este se usó de referencia para el desarrollo de nuestro script. Fig. 6. Script encargado de hacer el Scraping de la página Tripadvisor. Fuente: autoría propia, Lenguaje: Python 3 4.3 API Rest Dentro de los resultados obtenidos tenemos por parte de la API una serie deendpoints que entregan un recurso derivado del análisis específico, a continuación, se listan dichos Endpoints junto con el recurso obtenido en cuestión: ● Listado de hoteles disponibles ● Hoteles por popularidad ● Distribución de comentarios ● Serie de tiempo por año ● Serie de tiempo por mes ● Conteo del total de reviews ● Frecuencia de palabras ● Reglas de asociación (Apriori)
  • 18. 17 ● Descarga de reviews en formato Excel 4.4 Front End Respecto a la interfaz de usuario de la aplicación web, se usó la librería de Javascript ReactJS, al ser una tecnología enfocada en componentes, y eso permite agilizar el desarrollo, al poder tener componentes aislados, y después modularmente unirlo como piezas de cualquier rompecabezas,sin descuidar la forma en cómo interactúan entre ellos. Cabe mencionar que también se ocuparon librerías para series de tiempo, poder mostrar el grafo donde se encuentran las reglas de asociación, y la nube de palabras. 5. Conclusiones y lineamientos para futurasinvestigaciones. 5.1 Lineamientos para futuras investigaciones
  • 19. 18 18 Existen ciertas características y funcionalidades que se han pospuesto para trabajo futuro y que actualmente no se contemplan las cuales son: Agregar opción de no tomar en cuenta las fechas al aplicar los filtros. Permitir que las series de tiempo se puedan visualizar por meses y no sólo por años.Si bien las series de tiempo anuales son bastante buenas en periodos largos, sin embargo, para mostrar periodos más cortos de tiempo no alcanzan a tener un desempeño muy bueno, en este aspecto se deberá agregar una serie por mes que muestre los datos en periodos más cortos. Agregar componente para añadir un hotel. Se busca que el cliente pueda agregar los hoteles que él desee para enriquecer la información de la aplicación, en este aspecto se deberá añadir un componente para agregar un hotel específico. 5.2 Conclusiones De acuerdo con los resultados del proyecto, y conforme a los tiempos actuales de análisis que el beneficiario invierte en la búsqueda y graficación de comentarios, se concluye que la aplicación reduce y optimiza el tiempode trabajo del beneficiario. La comparación de tiempos entre la aplicación y el proceso manual es clara y contundente, resultando ser una herramienta más efectiva; en la actualidad, este tipo de sistemas de retribución de información se están haciendo cada vez más populares y comunes, otorgando mejores resultados que los que una persona con la misma labor haría, lo que sin duda muestra una tendencia muy importante en la cual en un futuro no muy lejano las funciones de estas personas se verán sustituidas por algoritmos de análisis e inteligencia artificial desarrollados en este tipo de sistemas de retribución de información. 6. Referencias  Beck, M. (Enero 01, 2012). How to Scrape Tweets From Twitter. Agosto 27, 2020, de medium.com  Gasparini, M. (Agosto 28, 2020). Google Maps Scraper. Noviembre 1,2020  Hermanto, D., 2018. Twitter Social Media Sentiment Analysis In Tourist Destinations Using Algorithms Naive Bayes Classifier. 1st ed. [ebook] Indonesia: IOP Publishing, p.7.  J. Moine, A. Haedo, & S. Gordillo. (01-01-2011). Análisis comparativo de metodologías para la gestión de proyectos de minería de datos. XVII CONGRESO ARGENTINO DE CIENCIAS DE LA COMPUTACIÓN, 931 -938. 19-08-2020,  Li, S. (2018). Web Scraping Trip Advisor, Text Mining and SentimentAnalysis for Hotel Reviews. agosto 26, 2020, de medium.com  Richard, G. (Enero 10, 2006). SCRUM PARA STARTUPS. Agosto 21, 2020
  • 20. 19 18 Aplicación web para análisis de comentarios sobrela calidad de servicios turísticos de Cancún Web application for analysis of comments on the quality oftourist services in Cancun Esteban Ramón Hernández Valencia (150300092@ucaribe.edu.mx), MartínJavier Ayala Miranda (150300081@ucaribe.edu.mx) y Sebastián Jiménez Puya (150300091@ucaribe.edu.mx) Departamento de ciencias básicas e ingenierías, Universidad del Caribe,Esquina Fraccionamiento, Tabachines, 77528 Cancún, Q.R. México. Resumen. Cancún es una ciudad con un crecimiento turístico promedio del 2% anual, por consiguiente, esto ha llevado a la creación de planes de estudio relacionados al turismo y gastronomía, específicamente en la Universidad del Caribe, los que a su vez integran asignaturas y proyectos para la evaluación de la calidad y mejora de los servicios turísticos. Debido al formato en que se realizan, se invierte al menos 2 horas para realizar el levantamiento de información y 2 horas para la integración gráfica. Este proyecto aborda el desarrollode una plataforma que, utilizando las metodologías SCRUM y CRISP-DM así como técnicas de web scraping y de análisis y procesamiento de grandes volúmenes de datos, obtiene las reseñas online de hoteles y/o restaurantes y permite generar reportes sobre la calidad de los servicios de los mismos; La aplicación reduce y optimiza el tiempo de generación de reportes. Palabras clave: extracción, reseñas, calidad, servicio, análisis, sentimientos. 1. Introducción. Año con año la ciudad de Cancún, México recibe una cantidad impresionante de turistas, los cuales dejan mucha información sobre su experiencia en este destino, como lo son comentarios y/o reseñas sobre el servicio brindado en hoteles, restaurantes, parques, transporte, etc. Por consiguiente, se pretende que, mediante un correcto tratamiento de información y análisis estadístico de los grandes volúmenes de datos quelos turistas “dejan” en las plataformas virtuales, se pueden detectar patronesque permitan generar conclusiones y decisiones acerca de cómo se está gestionando el sector turístico en la ciudad. Y en base a estos, formular estrategias que puedan ser implantadas en los programas educativos de la Universidad del Caribe relacionados al turismo, de manera que el estudiantesea consciente de la situación actual y sea capaz de identificar áreas de oportunidad para solventar dichos problemas detectados de primera fuente. Contribuyendo así a mejorar la calidad del destino.
  • 21. 20 18 2. Estado del arte Diversos autores han estudiado técnicas y herramientas para la gestión y análisis de grandes volúmenes de datos, tal es el caso de Moine J., Haedo A., & Gordillo S. que en el año 2011 realizaron un estudio denominado “Análisis comparativo de metodologías para la gestión de proyectos de minería de datos” en donde el congreso argentino de ciencia de la COMPI realizó dicho análisis comparando las siguientes metodologías: KDD, CRISP-DM, SEMMA y Catalyst, derivado de dicho artículo se puede concluirque la metodología que mejor se acopla a nuestro proyecto es el CRISP-DMya que en el comienzo se tiene que realizar un análisis del negocio y del problema organizacional así como que contemplan el análisis y comprensióndel problema antes de comenzar el proceso de minería. Otro estudio realizado en el mismo año pero esta vez en la Universidad de Columbia, New York denominado “Análisis de sentimientos en datos de Twitter” por los autores Agarwal A, Xie B., Vovsha L. , Rambow O., & Passonneau R. Se enfocó en construir modelos para dos tareas de clasificación específica: clasificar comentarios en positivos o negativos, y clasificar comentarios en positivos, negativos o neutros todos ellos de la plataforma Twitter. Para ello, se usaron tres modelos específicos por separado, y después, una combinación de estos para incrementar el desempeño. Estos fueron: un modelo unigramático, un modelo basado en características y un modelo basado en un árbol de kernels. En el 2018, en Indonesia, el autor Hermanto DT, realizó un estudio llamado Twitter Social Media Sentiment Analysis in Tourist Destinations Using Algorithms Naive Bayes Classifier donde se usó el clasificador de Naive Bayes, para analizar comentarios de Twitter sobre los destinos turísticos en este país, y habla de cómo fueron pre-procesados los comentarios para estar listos a ser ingresados al clasificador de Bayes. Y su hallazgo fue que este clasificador les fue de ayuda para determinar que la opinión pública sobre los destinos turísticos era mayormente positiva, y se concluye que este clasificador es muy bueno para este tipo de propósitos. 3. Metodologías empleadas La investigación emplea un conjunto de metodologías y herramientas informáticas para la minería y análisis de la información, que permitirán realizar la búsqueda, extracción, preprocesado, análisis y postprocesado de los datos, así como metodologías para la gestión de proyectos de software yde minería de datos las cuales se describen seguidamente: 3.1 SCRUM Es un marco dentro del cual las personas pueden abordar problemas complejos de adaptación, mientras entregan de forma productiva y creativa productos del mayor valor posible. Se usó la metodología para poder hacer entregas de valor de la aplicación web al departamento de turismo y así poder tener mejor feedback del mismo. Asimismo esta metodología se centra en dividir el proyecto en subtareas más pequeñas para poder hacerlas en equipos pequeños.
  • 22. 21 18 3.2 CRISP-DM Para la parte de minería de datos del proyecto se llevará la metodología de CRISP-DM, esta metodología se eligió ya que describe las tareas de cada fase del proceso e incorpora actividades para la gestión del proyecto; así también, como una fase de inicio tiene la compresión del negocio que ayudaa determinar hacia dónde se quiere dirigir la información que se obtenga de la minería. 3.3 Servicio RestFul de análisis de datos Con la finalidad de separar el análisis de la información obtenida en el web scraping y que a la vez fuera funcional e independiente para ser consultado desde cualquier cliente, se desarrolló una API REST que mediante peticiones HTTP devolviera el recurso requerido en cuestión para posteriormente ser desplegado por el cliente en forma de tablas, gráficas, etc. Debido a la necesidad de utilizar un lenguaje especializado en tareas deData Science como el análisis de los datos, análisis de sentimientos, etc. Como lo es Python, se decidió usar Flask RESTful, la cual es una extensión del micro framework de python Flask que permite crear aplicaciones restful minimalistas y escalables. Algunas de las ventajas que nos brinda este framework son la capacidad de decidir nuestra propia arquitectura ya que al ser extremadamente minimalista no tiene una arquitectura o scaffolding predefinido para el desarrollo por lo que ofrece la libertad de construir todo prácticamente desde cero, controlando todo lo que sea necesario. Y esto siempre cuidando que la API cumpla con los requerimientos y reglas que REST dictamina. 3.3.1 Criterios para el diseño de la API Hay ciertos criterios que se tienen que tomar en cuenta a la hora de crear API’s rest, uno de estos dictamina que todo recurso en la base de datos debe tener un identificador denominado URI (Uniform Resource Identifier) la cual se puede ver desde el aspecto HTTP como una URL que apunta hacia un recurso de nuestra base de datos. Existen ciertas reglas y buenas prácticas para la asignación de nombres de dichas URI, sin embargo, no se entrará en detalle en este aspecto, pero lo que es importante destacar es que estas están pensadas para sistemas de información con bases de datosrelacionales, ahora bien, lo interesante y el reto de esto ha sido el poder adaptar el funcionamiento de una API para trabajar como una API restful de Data Science la cual pueda realizar un análisis específico de la información dependiendo la URI con la que se consulte. Así pues, para la asignación de recursos se hizo un análisis previo con el fin de responder a la pregunta: en una API de Data Science ¿Qué es un recurso? Un recurso en una API convencional podría ser un registro en la base de dados por ejemplo, pero en este caso en particular eso no nos aporta ningún valor, debido a esto, se llegó a la conclusión de que un recurso representaría el resultado de hacer alguna tarea de análisis de datos o manipulación de la información, así puestoda información que el cliente necesitase conocer representaría un recurso y por ende podría acceder a él mediante la petición correspondiente. Tomemos el ejemplo de que el cliente quiere conocer de cuáles hoteles se dispone información dentro de la base de datos y cuántos comentarios se tienen por hotel, ordenando estos de mayor a menor en base al número de comentarios. La respuesta es una URI que permita mediante un correcto nombramiento acceder a esta información como la de a continuación: localhost:5000/hotels/popularity
  • 23. 22 18 donde “hotels” representa el recurso “hoteles” y “popularity” el número de reseñas, asumiendo que mientras más reseñas tenga un hotel significa que este es más popular al haber recibido más visitas. Tomemos otro ejemplo esta vez con una serie de tiempo, en donde el cliente necesita conocer cuantos comentarios positivos, negativos y neutros tuvo cada hotel por año. Para ello, la URI debe representar un recurso que presente la información necesaria para graficar dicha serie de tiempo resultante del análisis de los datos. A lo cual se tiene las siguiente: localhost:5000/hotels/popularity/distribution/yearTimeSeries donde “distribution” representa el número de comentarios positivos, neutrosy negativos que se tienen por hotel y “yearTimeSeries” significa esta misma distribución pero esta vez a lo largo de los años. Es importante destacar que, según las reglas Rest, una url no debe pertenecer a una acción en concreto sino a un recurso. En este caso pareciera que al pedir hacia algunos de los endpoints mencionados anteriormente se estuviera pidiendo una acción, sin embargo, aquí es dondejuega un papel importante las convenciones de nomenclatura de API’s ya que hay una diferencia sutil entre pedir a la API que realice un resumen por del número de comentarios por hotel a indicarle que me devuelva la popularidad de dichos hoteles, la diferencia es muy sutil pero de esta forma se ha conseguido permanecer dentro del estándar rest de representación derecursos. De esta forma la API funciona bajo el concepto de una caja negra a la cual le pedimos algo, y nos devuelve un resultado sin necesidad de conocer su implementación y procesos por detrás. Para el deploy de la API se utilizó una máquina virtual de Debian ejecutada desde la plataforma como servicio de computación en la nube Heroku, así pues el dominio asignado al servicio rest fue el siguiente: https://reviewscaribe.herokuapp.com/ De esta forma la composición de la url se forma con el nombre del dominio de nuestro servicio más la uri hacia nuestro recurso específico, por ejemplo: https://reviewscaribe.herokuapp.com/hotels/popularity/distribution Nombre del dominio del servidor URI 3.3.2 Arquitectura Hexagonal Debido a las características del microframework Flask, para el diseño de la arquitectura de la API, pensando en la flexibilidad y escalabilidad se decidió utilizar una adaptación basada en la arquitectura denominada “Arquitectura hexagonal”, la cual contempla la división del software en tres grandes áreas o capas con su propia responsabilidad: aplicación, dominio e infraestructura.Donde cada una de estas se encarga de gestionar una parte específica de la aplicación como a continuación se describe: Aplicación: Esta área se encarga de gestionar y coordinar todos los elementos de la aplicación. No contiene lógica de negocio ni mantiene el estado de los objetos de negocio. Es responsable de mantener el estado de
  • 24. 23 18 Data Base[ Collection (Nombre de la plataforma web) { _id: 'Identificador único del comentario', review_body: 'Comentario del usuario', review_date: 'Fecha que se realizó el comentario', hotel_name: 'Nombre del hotel al que corresponde el comentario',rating: 'Calificación que se le dio al comentario en caso de tenerlo' } la aplicación y del flujo de esta. En la capa de aplicación se gestionaron los casos de uso donde estos se encargaban de conectar los servicios de dominio e infraestructura encargados de realizar el análisis de los datos y reportar informes de estos respectivamente. Dominio: La capa de dominio es la encargada de gestionar toda la lógica de negocio de la aplicación, es la encargada de definir los contratos o puertos, representados en la programación orientada a objetos por interfaces, que serán usados en la capa de infraestructura mediante adaptadores que implementarán la interfaz se acuerdo al tipo de tarea que realizarán. Permitiendo así conectar la lógica de negocio con el resto de la aplicaciónsin necesidad que una capa dependa de otra. A su vez, en esta capa se definieron los servicios de dominio encargados de realizar el filtrado de la información dependiendo la lógica de negocio que envolviese a ese caso de uso concreto. Infraestructura: Esta capa gestiona la comunicación de la aplicación con el exterior, es la encargada de persistir la información en la base de datos, de realizar envíos de notificaciones, emails, etc. Todo proceso que requiera comunicación desde la aplicación hacia el exterior sale a partir de la capa deinfraestructura. Debido a la naturaleza de la API, al no hacer persistencia en base de datos, esta capa se reservó únicamente para la generación de reportes en formatos xlsx, los cuales son una forma de persistencia y envío de datos con el exterior, lo cual es responsabilidad de la capa de infraestructura. Al hacer esta separación por responsabilidades, se consigue que estas evolucionen de manera aislada, además de facilitar la reutilización. 4. Resultados experimentales 4.1 Base de datos En el diseño de la base de datos se empezó usando la metodología de CRISP-DM en las fases de comprensión del modelo de negocio y comprensión de los datos; para esto, se inició con una búsqueda de diferentes páginas donde se pudieran poner y obtener comentarios de hoteles en Cancún; algunas aplicaciones que se están usando son TripAdvisor, Twitter y Google maps. Con base en esta información, seseleccionaron los elementos de los comentarios que serían útiles de acuerdo a los requerimientos del beneficiario, para esto se procedió a hacer un contraste entre las plataformas para ver qué elementos compartían las páginas y en cuáles difieren, para así poder seleccionar los de mayor relevancia.
  • 25. 24 18 def scrape(url, lang='en'): # Crea session para tener todas las cookies entre requests session = requests.Session() session.headers.update({ 'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64;rv:57.0) Gecko/20100101 Firefox/57.0', }) # Obtiene todos los comentarios de los comentarios de un hotel o restaurante de TripAdvisor # a través de la url de la página. items = parse(session, url + '?filterLang=' + lang) return items 4.2 Web Scraping Como segundo paso , preparación de datos, se creó un Web Scraping que obtenga los datos de las páginas web y los almacenará en la base de datos usando el esquema que se diseñó. El web scraping se dividió en diferentes scripts para cada página web, ya que todas tienen diferente formato para obtener los elementos deseados. El primer script que se trabajó fue el de TripAdvisor, se realizó una búsqueda de algoritmos que nos ayudará obtener la información deseada demanera más rápida , así mismo se encontró un algoritmo que se acopla a lo que necesitábamos, este se usó de referencia para el desarrollo de nuestro script. Fig. 6. Script encargado de hacer el Scraping de la página Tripadvisor. Fuente:autoría propia, Lenguaje: Python 3 4.3 API Rest Dentro de los resultados obtenidos tenemos por parte de la API una serie deendpoints que entregan un recurso derivado del análisis específico, a continuación se listan dichos Endpoints junto con el recurso obtenido en cuestión: ● Listado de hoteles disponibles ● Hoteles por popularidad ● Distribución de comentarios ● Serie de tiempo por año ● Serie de tiempo por mes ● Conteo del total de reviews ● Frecuencia de palabras ● Reglas de asociación (Apriori)
  • 26. 25 18 ● Descarga de reviews en formato Excel 4.4 Front End Respecto a la interfaz de usuario de la aplicación web, se usó la librería de Javascript ReactJS, al ser una tecnología enfocada en componentes, y eso permite agilizar el desarrollo, al poder tener componentes aislados, y después modularmente unirlo como piezas de cualquier rompecabezas,sin descuidar la forma en cómo interactúan entre ellos. Cabe mencionar que también se ocuparon librerías para series de tiempo, poder mostrar el grafo donde se encuentran las reglas de asociación, y la nube de palabras. 5. Conclusiones y lineamientos para futuras investigaciones. 5.1 Lineamientos para futuras investigaciones
  • 27. 26 Existen ciertas características y funcionalidades que se han pospuesto para trabajo futuro y que actualmente no se contemplan las cuales son: Agregar opción de no tomar en cuenta las fechas al aplicar los filtros. Permitir que las series de tiempo se puedan visualizar por meses y no sólo por años.Si bien las series de tiempo anuales son bastante buenas en periodos largos, sin embargo, para mostrar periodos más cortos de tiempo no alcanzan a tener un desempeño muy bueno, en este aspecto se deberá agregar una serie por mes que muestre los datos en periodos más cortos. Agregar componente para añadir un hotel.Se busca que el cliente pueda agregar los hoteles que él desee para enriquecer la información de la aplicación, en este aspecto se deberá añadir un componente para agregar un hotel específico. 5.2 Conclusiones De acuerdo con los resultados del proyecto, y conforme a los tiempos actuales de análisis que el beneficiario invierte en la búsqueda y graficación de comentarios, se concluye que la aplicación reduce y optimiza el tiempode trabajo del beneficiario. La comparación de tiempos entre la aplicación y el proceso manual es clara y contundente, resultando ser una herramienta más efectiva; en la actualidad, este tipo de sistemas de retribución de información se están haciendo cada vez más populares y comunes, otorgando mejores resultados que los que una persona con la misma labor haría, lo que sin duda muestra una tendencia muy importante en la cual en un futuro no muy lejano las funciones de estas personas se verán sustituidas por algoritmos de análisis e inteligencia artificial desarrollados en este tipo de sistemas de retribución de información. 6. Referencias  Beck, M. (Enero 01, 2012). How to Scrape Tweets From Twitter. Agosto 27, 2020, de medium.com  Gasparini, M. (Agosto 28, 2020). Google Maps Scraper. Noviembre 1,2020  Hermanto, D., 2018. Twitter Social Media Sentiment Analysis In Tourist Destinations Using Algorithms Naive Bayes Classifier. 1st ed. [ebook] Indonesia: IOP Publishing, p.7.  J. Moine, A. Haedo, & S. Gordillo. (01-01-2011). Análisis comparativo de metodologías para la gestión de proyectos de minería de datos. XVII CONGRESO ARGENTINO DE CIENCIAS DE LA COMPUTACIÓN, 931 -938. 19-08-2020,  Li, S. (2018). Web Scraping Trip Advisor, Text Mining and SentimentAnalysis for Hotel Reviews. agosto 26, 2020, de medium.com  Richard, G. (Enero 10, 2006). SCRUM PARA STARTUPS. Agosto 21, 2020
  • 28. 27 Algoritmos Machine Learning (ML): Predicción de casos SARS-CoV-2 en Bolivia Juan Ruiz Otondo1Julio, 2021. Resumen El sistema económico - sanitario global atraviesa una incertidumbre, resiliencia por efecto de lapandemia, ante esa adversidad es determinante estimar los comportamientos de escenarios decasos Covid-19, para una toma de decisión estratégica en política sanitaria. El objetivo de este artículo es examinar las implicaciones de algoritmos Machine Learning (ML) en precisión predictiva de casos SARS-CoV-2. La metodología se sustenta en la estadística y analítica predictiva de algoritmos ML, construido mediante la técnica de análisis computacional Python.El resultado determina un test global de 94% en precisión de predicción, los algoritmos ARIMAy RANDOM FOREST tienen un test débil en predecir, por ende no se cumpliría sus pronósticos,por otra parte el algoritmo PROPHET tiende ser predictor intermedio de los demás, dentro deesa perspectiva los algoritmos ML que tienen mejor test de precisión predictiva a la realidad de los datos de casos diarios de Covid-19 para Bolivia son; GLMNET Y PROPHET W/XGBOOT ERRORS, por la razón anterior se podría concluir que los modelos predictivos GLMNET y PROPHET W/XGBOOT ERRORS son mejores algoritmos para predecir escenarios de casos SARS- CoV-2 a corto plazo. Clasificación JEL: C55, I1, J6, 033 Palabras Claves: Machine Learning, Covid-19, Predicción 1 Economista (USFX), Mg. Rel. Económicas Internacionales por Universidad de Buenos Aires (UBA), Data Scientist por Digital House Argentina, Posgrado en Estadística por Universidad Nacional de Córdoba (UNC), investigador - expositor habitual en conferencias nacional e internacional, Analista de Datos en Datastudy Consulting, Prof. Universitario Extraordinario - USFX y Miembro Académico de Asociación Argentina de Economía Política (AEEP). El resultado de investigación es responsabilidad exclusiva del autor y Datastudy Consulting, no compromete la opinión de la institución publicadora. Cualquier duda, sugerencia a otondojr@outlook.com.
  • 29. 28 I. Introducción El mundo vive un momento de mucha incertidumbre por la dramática situación de la pandemia, a inicios de la pandemia desde la analítica predictiva se indicaba que los decesos por SARS-CoV-2 alcanzaría a 6 millones (Oxford, 2020), de acuerdo a ultimas estimaciones y predicciones matemáticas – estadísticos indican que los decesos alcanzarán a 10 millones de personas (The Economist, 2021), entonces todo da entender que esta pandemia está aquí para durar y se volverá cada vez más resistente por la multiplicación de variantes en el resto del mundo, ante esta realidad de actual pandemia de COVID-19 es fundamental generar estudiosacadémicos que permitan prever escenarios a corto plazo para una adecuada planificación y toma de decisión estratégica en la política de salud pública, esto para una asignación eficiente de la atención sanitaria y el seguimiento de los efectos socioeconómicos. Este documento tratará de responder de ¿Cuáles son los algoritmos que mejor predicen los comportamientos de casos SARS-CoV-2 en Bolivia? Y que escenarios se espera en los próximos90 días. El objetivo de este artículo es examinar las implicaciones de algoritmos Machine Learning (ML) en precisión de predicción de casos Corona Virus Disease – 2019 (Covid-19). Elpresente documento de investigación tiene una estructura de articulo científico en desarrollo, inicialmente se presente el resumen de articulo, seguido de una pequeña introducción, una revisión de estado de la cuestión o revisión literaria sobre el objeto de estudio, continuando conel desglose metodológico matemático – estadístico, el tratamiento de datos e instrumentos utilizados, finalmente se establece el análisis de resultados, discusión y su correspondiente conclusión de estudio realizado. II. Revisión literaria En la literatura se puede encontrar diferentes enfoques para modelar y pronosticar epidemias de enfermedades infecciosas se pueden caracterizar como: i) modelos mecanicistas basados enestados susceptibles, expuestos, infectados y recuperados (SEIR) (Bjornstad, Shea, Krzywinski, & Altman,, 2020) que es una extensión de modelo de estados susceptibles S (t), infectadas I (t)y recuperadas R (t) (SIR), este último fue abordado de manera simple en el Boletín N° 1, 2020 de la Carrera de Economía, ii) modelos de predicción de series de tiempo como ARIMA (Sahai,Rath, Sood, & Singh, 2020), modelo de Gray (Zhao, Shou, & Wang, 2020) y modelos de cadenade Markov (Marfak, Achak, Azizi, Nejjari, & Aboudi, 2020); y iii) modelos de tipo de agente (Cuevas, 2020) es implica una simulación de actividades individuales para una población. Dentro de modelos de serie de tiempo (ii), en campo de Big Data, Data Science, surgieron algoritmos de Machine Learning (Shahriare, Koushik, Mufti, & al., 2021), las misma son bastante robustos a la hora de predecir comportamiento de actividades de toda índole desde negocios, economía, ingeniería, salud, etc. no podría ser el caso de escenarios, simulaciones dedecesos, casos nuevos de SARS-CoV-2. Y que se ¿entiende por algoritmo? ¿Machine Learning?.Desde la ciencia de datos se considera que algoritmo es una secuencia lógica y finita de pasos que permite solucionar un problema o cumplir con un objetivo (Bruce, Andrew, & Gedeck, 2020), es crucial para avances tecnológicos como la Inteligencia Artificial (IA), en Big Data
  • 30. 29 ayuda en la búsqueda de patrones y relaciones entre variables entre cantidad de datos, algunos programadores afirman que dicha secuencia es más importante que el lenguaje de programación y la computadora. Por otra parte, el Machine Learning o aprendizaje automáticoes un subcomponente o subdivisión de la Inteligencia Artificial, que a través de algoritmos dotaa los ordenadores de la capacidad de identificar patrones en datos masivos para hacer predicciones (Lantz, 2019), mientras otra definición entiende que es una disciplina científica delámbito de la Inteligencia Artificial que crea sistemas que aprenden automáticamente. Aprenderen este contexto quiere decir identificar patrones complejos en millones de datos. La máquina que realmente aprende es un algoritmo que revisa los datos y es capaz de predecir comportamientos futuros (Nils, 2005). Dentro de la literatura es bastante estudiado y conceptualizado la enfermedad conocida como Corona Virus Disease 2019 (COVID-19) está causada por el coronavirus 2 del síndrome de distrés respiratorio del adulto (SDRA) o Severe Acute Respiratory Syndrome Coronavirus 2 (SARS-CoV-2) (Cervera, Espinoza, Ramos, Hernandez, & al., 2020), y de acuerdo a la revista científica Nature, ante un sondeo a inmunólogos, virólogos y expertos en salud de todo el mundo, se les consulto si se podía erradicar el SARS-CoV-2, los expertos en la materia mencionaron en 90% dijeron de manera contundente “NO”. Hecho una contextualización de objeto de estudio es necesario indagar respecto a los estudios e investigaciones que hayan realizado en ámbito académico sobre el eje temático del presente artículo, en el último año surgió una línea de investigación respecto a algoritmos ML aplicados a la analítica predictiva de Covid-19, en un reciente artículo sobre diagnóstico, mortalidad y predicción de riesgo por Covid-19, se concluyó la necesidad de usar métodos de aprendizaje automático para predecir comportamiento de casos y decesos por Covid-19, las técnicas usadastendría alta precisión predictiva (Alballa & Al-Turaiki, 2021), otro estudio utilizando algoritmos de ML, PROPHET, POLY-MLP para un pais surasiático, pronosticó con precisión la cantidad de casos infectados al día mediante el entrenamiento de los datos de muestra de 25días anteriores registrados (Shahriare, Koushik, Mufti, & al., 2021), los autores recomiendan usar este método ML para prevención e identificación de infección Covid-19 de maneraanticipada, en la misma línea de investigación con el uso de algoritmos ARIMA, RANDON FOREST, BOOSTING con datos geográficos, de viaje, de salud, demográficos para predecir lagravedad del caso y el posible resultado, recuperación o muerte en casos Covid – 19, la mismapredijo con un test de precisión de 94% (Iwendi, Peshkar, Sujatha, & al., 2020), por su parte enotro artículo relacionado tuvo el propósito de detectar el papel de las aplicaciones y algoritmos de aprendizaje automático de REGRESION LOGISTICA, ANN, W/XGBOOT ERRORS en la investigación y diversos propósitos que se ocupan del COVID-19, y se concluyó que el aprendizaje automático puede estar involucrado en los programas y planes de los proveedoresde salud para evaluar y clasificar los casos de SARS-CoV-2. (Alhayani & Kwekha, 2021), el testde precisión para el conjunto de algoritmos fue de 92%. Otro estudio para varios países se determinó con algoritmos de aprendizaje automático y un test de precisión de 91%, en
  • 31. 30 predicción de casos nuevos y patrones de contagio, propagación de la enfermedad. (Almad, Nassean, & al., 2021) III. Metodología Este artículo se sustenta metodológicamente en la expresión matemática – estadística de la analítica predictiva, inicialmente se expone el método de pronóstico más utilizado, llamado modelo ARIMA, este algoritmo se utiliza para datos de series de tiempo para predecir comportamiento, tendencia a futuro (Painuli, Mishra, & Bhardwaj, 2021), en síntesis, el modelose puede expresar para el espacio geográfico de Bolivia, de la siguiente manera; 𝐴𝑅𝐼𝑀𝐴(< 𝑑𝑎𝑡𝑎𝑠𝑒𝑡_𝐵𝑜𝑙𝑖𝑣𝑖𝑎 > ⌊targetvalue_casos⌋, 𝑜𝑟𝑑𝑒𝑟 = (𝑝, 𝑑, 𝑞)) (1) Utilizando el conjunto de datos hasta 30 de julio de 2021, se pronosticó para los próximos 90 días. Otros de los algoritmos clásicos de Machine Learning es RANDON FOREST o bosque aleatorio que es un modelo de regresión y clasificación basado en un conjunto de datos (Aljameel, Aslam, & at., 2021), utiliza el método de muestreo de datos de arranque para dividirlos datos en conjuntos de entrenamiento y prueba, en este estudio, se usa la ganancia de información y la entropía, como se muestra en las siguientes ecuaciones de manera sintética: 𝑛 𝐸(𝑌) = ∑ −𝑝𝑖𝑙𝑜𝑔2𝑝𝑖, … 𝐸(𝑋, 𝑌) = ∑ 𝑝(𝑛)𝐸(𝑛) 𝑖=1 𝑛∈𝑋 (2) En la ecuación 2, E(Y) representa la entropía del objetivo, mientras que es la entropía de los atributos con el objetivo, en el que 𝑋 = {𝑋1, 𝑋2, … 𝑋𝑛} es el conjunto de atributos del conjunto dedatos. El atributo con la mayor ganancia de información será el atributo raíz, como sigue: 𝑑𝑎𝑡𝑜𝑠𝑔𝑎𝑛𝑎𝑛𝑐𝑖𝑎 = 𝐸(𝑌) − 𝐸(𝑋, 𝑌) (3) Combina las predicciones hechas por múltiples árboles usando vectores seleccionados al azar representados por 𝜃𝑇 , donde los vectores seleccionados son independientes de los vectores previamente seleccionados. El error de generalización del árbol de decisión se representa de lasiguiente manera: 𝐺𝐸 = 𝑃𝑥,𝑦 … (𝑚𝑎𝑟𝑔𝑒𝑓𝑢𝑐(𝑋, 𝑌) < 0) (4) Donde 𝑃𝑥,𝑦 es la probabilidad de que el conjunto de atributos se asigne a la etiqueta de clase Y. Otro algoritmo Machine Learning es PROPHET, que es un procedimiento para pronosticar datos de series de tiempo basado en un modelo aditivo donde las tendencias no lineales se ajustan a la estacionalidad anual, semanal y diaria, más los efectos de las vacaciones, (Shahriare,
  • 32. 31 Koushik, Mufti, & al., 2021), funciona mejor con series de tiempo que tienen fuertes efectos estacionales y varias temporadas de datos históricos, este algoritmo es robusto ante los datos faltantes y los cambios en la tendencia, y normalmente maneja bien los valores atípicos, el procedimiento utiliza un modelo de series de tiempo descomponible con tres componentes principales del modelo: tendencia, estacionalidad y asueto, que esta expresado de la siguientemanera: 𝑦(𝑡) = 𝑔(𝑡) + 𝑠(𝑡) + ℎ(𝑡) + 𝑒(𝑡) (5) Donde la ecuación 5, esta representado por g(t) que es la tendencia del modelo en cambios no periódicos, es decir el crecimiento en el tiempo, s(t) es la estacionalidad que presente cambios periódicos, entre tanto el h(t) es el vinculo de efectos, finalmente e(t) cubre los cambios idiosincrásicos que no se adaptan al modelo. PROPHET está enmarcando el problema de pronóstico como un ejercicio de ajuste de curvas (Shahriare, Koushik, Mufti, & al., 2021) en lugar de mirar explícitamente la dependencia temporal de cada observación. Por su parte el algoritmo GLMNET es un paquete que se adapta a modelos lineales generalizados y similares a través de la máxima verosimilitud penalizada (Hastie, Qian, & Tay, 2021), la ruta de regularización se calcula para el lazo o la penalización neta elástica en una cuadrícula de valores (en la escala logarítmica) para el parámetro de regularización lambda, este algoritmo es extremadamente rápido y puede aprovechar la escasez en la matriz de entrada, este algoritmo se puede entrenar con programación en R, Matlab, Python. 𝑁 1 𝑚𝑖𝑛 ∑ 𝑤𝑖𝑙(𝑦𝑖 , 𝛽0 + 𝛽𝑇𝑥1) + 𝝀[(𝟏 − 𝑎)‖𝖰‖𝟐/𝟐 − 𝑎‖𝖰‖𝟏] 𝛽0,𝛽 𝑁 𝟐 𝑖=1 (6) La ecuación 6, sobre una cuadrícula de valores de λ que cubre toda la gama de posibles soluciones, aquí l(yi, ηi) es la contribución de probabilidad logarítmica negativa para la observación i. La penalización de la red elástica está controlada por α y cierra la brecha entre la regresión de lazo, (α = 1, el valor predeterminado) y regresión de la cresta (α = 0). El parámetro de ajuste λ controla la fuerza general de la penalización, los algoritmos GLMNET utilizan el descenso cíclico de coordenadas, que optimiza sucesivamente la función objetivo sobre cada parámetro con otros fijos. Por una parte, el algoritmo XGBOOST ha sido elegido por analistas computacionales como unode los mejores predictores, de las tasas de clics de los anuncios hasta la clasificación de eventosde física de alta energía (Rahual, Balasaheb, & Mahalle, 2021), XGBOOST ha demostrado su valía en términos de rendimiento y velocidad. La precisión que proporciona constantemente y el tiempo que ahorra demuestran lo útil que es, la ecuación matemática que explica la predicción como primer paso, el modelo debe inicializarse con una función F0 (x). F0 (x) deberíaser una función que minimice la función de pérdida o error cuadrático medio, en este caso;
  • 33. 32 𝑛 𝐹0(𝑥) = 𝑎𝑟𝑔𝑚𝑖𝑛𝑦 ∑ 𝐿(𝑦1, 𝛾) 𝑖=1 (7) 𝑛 𝑛 𝑎𝑟𝑔𝑚𝑖𝑛𝑦 ∑ 𝐿 (𝑦𝑖, 𝛾) = 𝑎𝑟𝑔𝑚𝑖𝑛𝑦 ∑(𝑦𝑖 − 𝛾)2 𝑖=1 𝑖=1 (8) Tomando el primer diferencial de la ecuación anterior con respecto a γ, se ve que la función, seminimiza en la media i = 1 n yi n. Entonces, el modelo de impulso podría iniciarse con: ∑ 1 𝑦𝑖 𝐹 (𝑥) = 𝑖= 0 𝑛 (9) F0(x) da las predicciones de la primera etapa de nuestro modelo. Ahora, el error residual para cada instancia es (yi - F0 (x)). XGBOOST es una implementación popular de aumento de gradiente. Para la evaluación del algoritmo es muy importante calcular el test de precisión de la predicción, para esto existen metodologías, métodos y técnicas que ayudan a evaluar, tal es el caso de test de precisión (accuracy), para la ecuación se utiliza las siguientes simbologías, verdadero positivo (VP), verdadero negativo (VN), falso positivo (FP), falso negativo (FN). 𝑉𝑃 + 𝑉𝑁 𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 = 0.0 < 𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 < 1.0 𝑉𝑃 + 𝑉𝑁 + 𝑉𝑃 + 𝑉𝑁 (10) Para realizar el análisis estadístico y predictivo se recurrió a los datos en espacio y tiempo real, proporcionado por Johns Hopkins University2 y Our World in Data3 de Oxford University. Para entrenar los algoritmos Machine Learning se utilizó la técnica de análisis computacional con el lenguaje de programación multiparadigma Python, que tiene librerías especializadas enaprendizaje automático y generación análisis predictivos avanzados. Los resultados encontrados se exponen en el siguiente acápite. La metodología científica de simulación de escenarios predictivos con los algoritmos se ejecutócomo se puede visualizar en la siguiente ilustración. 2 https://coronavirus.jhu.edu/map.html 3 https://ourworldindata.org/
  • 34. 33 Predicción a futuro Identificación de mejor algoritmo Figura 1 Metodología y procedimiento de predicción SARS-CoV-2. Elaboración propia. Como se muestra en la Figura 1, la metodología y procedimiento científico que se siguió para obtener la simulación y predicción de nuevas infecciones en los próximos 90 días. Inicialmentese recolectó datos de SARS-CoV-2 en espacio y tiempo real, seguido preprocesamiento de datos, a continuación, se seleccionó las principales variables de interés, en este caso numero decasos desde inicios de la pandemia hasta 30 de julio del año en curso, paso seguido se sometióa entrenamiento de datos con los algoritmos Machine Learning, una vez ejecutado la analítica predictiva, los resultados obtenidos se introdujo a una evaluación del modelo global mediantela test de precisión predictiva, para confirmar o descartar algunos algoritmos de menorsignificancia en un intervalo de confianza a 95%, la misma permitió identificar, seleccionar mejores algoritmos ML, finalmente se simuló la predicción de casos nuevos en los próximos 90días. IV. Resultados y discusión El virus SARS-CoV-2 está generando la epidemia global más grande en los últimos cien años, siendo comparable con la influenza causada por el virus H1N1 en 1918, en el plano económicoestá provocando una profunda recesión económica con un costo social y humanitario significativo en el corto plazo, incertidumbre total a mediano y largo plazo. El manejo de datos es crucial en esta crisis Test de precisión Preparación de datos Dataset Covid-19 Algoritmos Machine Learning División de datos Evaluación de modelo Entrenamiento de datos
  • 35. 34 fundamentalmente en toma de decisiones sanitarias con el uso de
  • 36. 35 métodos estadísticos avanzados y predicativos. La era del big data promete grandes mejoras que complementarán a los métodos tradicionales de recolección de información, que podían ser lentos, costosos y complejos, en ese marco de tendencia actual de la ciencia, se utilizó métodos algorítmicos mas avanzados para predecir futuros comportamientos de casos Covid-19 en Bolivia, aunque se debe aclarar que la predicción se viene ejecutando desde enero del añoen curso. Figura 2 Casos confirmados SARS-CoV-2. Elaboración propia. Dataset. JHU / Our in Data En la siguiente Figura 2, se puede evidenciar la evolución de casos SARS-CoV-2 de manera diaria desde marzo de 2020 hasta 30 de julio de 2021, en la gráfica de serie de tiempo se observala presencia notoria de tres olas, cada ola es mayor que la anterior, si se analiza a nivel comparativo mensual el comportamiento es superior a lo que antecede, entonces, ¿la cuarta olaserá superior a estas olas cíclicas? Una vez realizado una mirada descriptiva de los datos ya pre-procesados, se ejecutó el entrenamiento de datos mediante algoritmos Machine Learning, paso seguido se evaluó con el test de precisión general, la misma se expone a continuación.
  • 37. 36 Figura 3 Test de precisión de algoritmos ML. Elaboración propia. Analizando de manera general el testeo y validez del modelo Machine Learning para SARS- CoV-2 Bolivia, se puede determinar que el modelo a nivel global tiene un test de precisión predictiva en 94 %, siendo los algoritmos PROPHET, GLMNET Y PROPHET W/XGBOOS ERROS con alto nivel de precisión en el testeo, mientras que los algoritmos ARIMA y RANDOM FOREST tiene bajo nivel de significancia en la predicción, para este último es considerable ya que es un algoritmo que tiene algo valor predictivo en claustering de datos. Figura 4 Algoritmos predictivos SARS-CoV-2. Elaboración propia.
  • 38. 37 En la Figura 4, se refleja la serie de tiempo de casos SARS-CoV-2 para Bolivia desde inicios de la pandemia, con simulación de escenarios predictivos hasta finales de octubre del año en curso, en la misma se puede ver un grado ascendente de distintas fases cíclicas de infecciones,el entrenamiento de datos con algoritmos de Machine Learning indica un proceso de estancamiento de contagios para algoritmos con menor test de precisión como ARIMA (línea roja) y RANDOM FOREST (línea celeste), así mismo el algoritmo PROPHET muestra señal deascenso de casos en los próximos meses, finalmente los algoritmos ML indican que GLMNET y PROPHET W/XGBOOS ERROS muestran indicios de presencia de cuarta ola, esto puede seralgo que puede ocurrir considerando de que las variantes de SARS- CoV-2, Delta tiene mayor transmisibilidad, además de Gamma, Alpha que tienen fuerte incidencia de contagio rápido, lamisma no estarían presente por ahora en Bolivia. Figura 5 Algoritmos predictivos SARS-CoV-2. 30 /07/2021 a 30/10/2021. Elaboración propia En la Figura 5, se observa el pronóstico o predicción de infectados de manera diaria a detalle en los próximos 90 días, el gráfico de serie de tiempo muestra de manera general un estancamiento de casos en rangos de 1000 a 2000 infectados diarios, con intervalos de confianzade 95 % superiores a 3000 casos, este fenómeno se presentaría en la cuarta ola desde principiosde septiembre hasta primera quincena de octubre tal como señala el algoritmo PROPHET W/XGBOOS ERROS, mientras que otro algoritmo GLMNET, indica que la cuarta ola se presentaría incluso mas antes. Todo da indicar que se viene una cuarta ola con las variantes deSARS-CoV-2, incluso si se toma en cuenta los datos a corto plazo se podría se podrá evidenciar
  • 39. 38 una quinta ola, esto puede sustentarse en las investigaciones realizadas por la revistascientíficas Nature y The Scientist donde indican que las mutaciones de los virus son una realidad, y que estaré presente activo en los próximos años. Figura 6 Algoritmos individualizados Machine Learning SARS-CoV-2, Bolivia. Elaboración propia. Para poder mostrar con mayor detenimiento se desagregó los algoritmos ML con intervalo deconfianza a 95%, en la primera parte se puede ver el algoritmo PROPHET predice que de subirán los casos en las próximas semanas, entre tanto el modelo ARIMA indica el estancamiento de casos, la misma no se cumpliría a cabalidad dado que sus test de precisión son bajos. Figura 7 Algoritmos individualizados Machine Learning SARS-CoV-2, Bolivia. Elaboración propia En la misma línea explicativa de anterior figura, aquí se muestran algoritmos que mejor predicen el nivel de contagio, la analítica predictiva GLMNET indica un ascenso de casos o contagios en las próximas semanas con cierto nivel de descenso para luego volver en senda alcista. Uno de los algoritmos de mayor precisión, exactitud PROPHET W/XGBOOS ERROS indica que se viene una cuarta ola que iniciaría con alto grado de contagios desde principio deseptiembre con duración de hasta primera quincena de octubre. Este tipo de datos predictivospodría ayudar una toma de decisión estratégica en la gestión publica sanitaria de manera
  • 40. 39 preventivo. Finalmente indicar que de acuerdo a evidencia empírica y análisis Correlación dePearson de contagios y movilidad local muestra fuerte asociación "negativa" entre el rigor de las restricciones y propagación de enfermedad, la reducción de movilidad en Bolivia no contiene el contagio con eficacia (Ruiz, 2021), por lo anterior se puede determinar que los resultados resaltan la necesidad de complementar las políticas de restricción con esquemas desensibilización, asistencia económica y salud, antes de implementar las famosas cuarentenas orestricciones rígidas. Conclusión El presente artículo tuvo como objetivo examinar las implicaciones de algoritmos ML en precisión de predicción de casos SARS-CoV-2, entre los hallazgos principales se puede explayarque los algoritmos Machine Learning que mejor predicen casos de contagios a futuro son PROPHET W/XGBOOS ERROS, GLMNET, seguido de PROPHET, a este carácter se añade la debilidad de precisión de los algoritmos ARIMA y RANDOM FOREST, sin embargo el test global de precisión predictiva llega a 94%, siendo valor estadístico similar a otros estudios científicos realizados. Cabe destacar que el entrenamiento de datos mediante algoritmos de analítica predice que en los próximos meses se evidenciará una cuarta ola, con tendencia similar a segunda o tercera ola, tal como establece los intervalos de confianza a 95%, esto puede ocurrir ante la presencia de variante Delta que tiene mayor transmisibilidad, además de las otras variantes como Gamma, Alpha, Epsilon que tienen fuerte incidencia de contagio rápido. Con estudios establecidos se puede entender que esta pandemia está aquí para durar y se volverá cada vez más resistente, no queda otra alternativa que el proceso de adaptación de convivencia con mal endémico en los próximos años, a sabiendo la fuerte asociación "negativa" entre el rigor de las restricciones y propagación de enfermedad, no queda otra opción complementar las políticas de restricción leves con esquemas de sensibilización, asistencia económica y salud, antes de implementar cuarentenas o restricciones rígidas. ***Investigación en desarrollo***
  • 41. 40 Referencias  Alballa, N., & Al-Turaiki, I. (2021). Machine Learning approaches in Covid-19 diagnosis, mortality, and severity risk predicctión. Obtenido de ELSEVIER:http://www.elsevier.com/locate/imu  Alhayani, B., & Kwekha, A. (4 de Marzo de 2021). Coronavirus disease (COVID-19) cases analysis using machine - learning applications. Obtenido de Applied Nanoscience: https://doi.org/10.1007/s13204-021-01868-7  Aljameel, S., Aslam, N., & at., e. (10 de 04 de 2021). Machine Learning based model to predict the disease severity and outcome in COVID-19 patients. Obtenido de Hindawi: https://doi.org/10.1155/2021/5587188  Almad, F., Nassean, S., & al., e. (2021). Predictión of COVID-19, cases using Machine Learning for effictive public health management. Tech Science Press, 10:32604.  Bjornstad, O., Shea, K., Krzywinski, M., & A. N. (2020). The SEIRS model for infectious disease dynamics. Nat Methods, 17:557–558.  Bruce, P., Andrew, B., & Gedeck, P. (2020). Practical Statistics for Data Scientists. Oxford: Oreilly.  Cervera, R., Espinoza, G., Ramos, M., Hernandez, J., & al., e. (2020). Respuesta Inmunoinflamatoria en el COVID-19. Buenos Aires: Panamericana.  Cuevas, E. (2020). An agent-based model to evaluate the COVID-19 transmission risks in facilities. Comput Biol Med., 121:103827.  Hastie, T., Qian, J., & Tay, K. (24 de 06 de 2021). An Introduction to glmnet. Obtenido de Standord.edu: https://glmnet.stanford.edu/articles/glmnet.html  Iwendi, C., Peshkar, A., Sujatha, R., & al., e. (2020). Covid -19 Patient health prediction using Boosted, Randon Forest Algorithm. Frontiers in Public Health , 8:357.  Lantz, B. (2019). Machine Learning with R. Expert techniques for predictive modeling . Los Angeles: Third Edition.  Marfak, A., Achak, D., Azizi, A., Nejjari, C., & Aboudi, K. (2020). The hidden Markov chain modelling of the COVID-19 spreading using Moroccan dataset. Data Brief., 32:106067.  Nils, J. N. (2005). Introductión to Machine Learning. Stanford: Stanford University.  Painuli, D., Mishra, D., & Bhardwaj, S. e. (21 de 05 de 2021). Forescating and prediction of COVID- 19 using MachineLearning. Obtenido de Data Science for COVID- 19:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8138040/  Rahual, G., Balasaheb, A., & Mahalle, P. (2021). Data Analytics for pandemics. A Covid-19 case estudy. New York: CRC Press.
  • 42. 41  Ruiz, O. J. (2021). Big Data, Coronavirus y Economia. Caso de estudio Bolivia. IX Congreso Internacional de Economia Etica. Bogota, Colombia: Universidad de Santo Tomás.  Sahai, A., Rath, N., Sood, V., & Singh, M. (2020). ARIMA modelling & forecasting of COVID- 19 in top five affected countries. Diabetes Metab Syndr, 14:1419–1427.  Shahriare, S., Koushik, H., Mufti, M., & al., e. (2021). Short - Term Predictión of Covid-19 Cases Using Machine Learning Models. Applied Sciences, 11, 4266.  Zhao, Y., Shou, M., & Wang, Z. (2020). Prediction of the Number of Patients Infected with COVID-19 Based on Rolling Grey Verhulst Models. Int J Environ Res Public Health., 17(12):4582.
  • 44. 43 Estudio de riesgos cibernéticos y los medios de seguridad que utiliza el control parental en los adolescentes del sexto semestre de preparatoria del Colegio Diego Rivera de Tuxtla Gutiérrez, Chiapas. Competencias en TIC Dra. Laura de Jesús Velasco Estrada1 Dra. Carmen Carolina Ortega Hernández2 Dra. Zoily Mery Cruz Sánchez3 Dra. Guadalupe Elizabeth Velasco Estrada4 Dr. Pedro Antonio Chambé Morales 5 1,3,4,5 UNACH, Facultad de Contaduría y Administración C-I y 2 UNACH, Facultad de Negocios C-IV 1 lvelasco@unach.mx (9611329188), CP 29020 Resumen. Actualmente la seguridad ha tomado gran importancia al momento de navegar por la red, debido a los grandes peligros que existen en ella. Microsoft (2018) menciona que México se encuentra en la posición penúltima de 14, en el Índice de Civilidad Digital1 (DCI, por sus siglas en inglés), donde 8 de cada 10 adultos y adolescentes mexicanos encuestados por Microsoft reportan haber estado expuestos a riesgos en línea, específicamente aquellos relacionados con temas sexuales o de intrusión de la privacidad. Según los resultados del DCI en términos de preocupación por los riesgos al navegar en la red, México es el segundo país con mayores niveles, tan solo detrás de la India. Los riesgos de reputación fueron los que más preocupación generaron. Palabras clave. Riesgo cibernético, control parental, seguridad Abstract. Currently, security has taken great importance when browsing the Internet, due to the great dangers that exist in it. Microsoft (2018) mentions that Mexico is in the penultimate position of 14, in the Digital Civility Index (DCI, for its acronym in English), where 8 out of 10 Mexican adults and adolescents surveyed by Microsoft report having been exposed to risks online, specifically those related to sexual or privacy intrusive topics. According to the DCI results in terms of concern about the risks when surfing the net, Mexico is the second country with the highest levels, only behind India. Reputational risks generated the most concern. Keywords. Cyber risk, parental control, security Introducción La presente investigación tiene como finalidad estudiar los riesgos Cibernéticos (Doxing, Ciberbullying, Sexting, Grooaming); y los medios de seguridad, que utiliza el control parental, en los adolescentes, con el objetivo de aportar propuestas de uso a los tutores y adolescentes en la interacción con el ciberespacio, a través del Control Parental. Es importante recalcar qué tipo de técnicas y procedimientos utiliza el control parental para llevar a cabo la gestión de seguridad en los adolescentes y que tan importante es que conozcan en la actualidad el procedimiento adecuado para la configuración del control parental para la protección de sus adolescentes. Los riesgos mencionados involucran secuelas fatales en los adolescentes, de acuerdo con datos del Consejo Ciudadano para la Seguridad y Justicia de la Ciudad de México (2020), así como también a las familias y a la sociedad misma; en donde se observa que el alto índice en la trata de personas va en aumento, que si bien no se produce con el único objetivo de someter a los adolescentes a explotación sexual, este fin representa el 58% de los casos reportados, otra consecuencia son los trabajos forzados que representan el 19%, aunado a eso existe la explotación laboral que equivale al 15%, donde los adolescentes se ven forzados a trabajar sin recibir ningún goce de sueldo, 1 El Índice de Civilidad Digital de Microsoft (DCI), es una medida del tono y tenor de las interacciones en línea.
  • 45. 44 exponiéndolos a los peligros de la calle, una más de las terribles consecuencias, es obligar a los adolescentes a realizar actividades criminales de modo que los convierten en delincuentes, bajo amenazas de atentar contra su vida o la de su familia, esto representa respectivamente, el 4%. Problema de investigación En una sociedad donde el proceso de la informatización ha tomado un papel importante, Castells(2006), aporta que vivimos en la era informacional, en la sociedad del conocimiento, en la cual los adolescentes interactúan más con los dispositivos digitales, y quedan expuestos a los riesgos que existen al navegar en la red, derivado de ello, atrajo consigo una de las principales preocupaciones por parte de los tutores (padres de familia), es mantener a salvo y en continua vigilancia a sus adolescentes, esta preocupación proviene debido a que esta población es numerosa. Nuestro objeto en estudio, alumnos de nivel preparatoria del sexto semestre del Colegio Diego Rivera; en cifras del INEGI (2019), la población joven en Chiapas es del 37.5 % los cuales son adolecentes (de 15 a 19 años). Es por ello que esta tesis da cuenta de los estudios de los factores de riesgos (Doxing, Sexting, Ciberbullying y Grooaming), que se encuentran al navegar en la red; así como los medios de protección de seguridad, que utiliza el control parental, en los adolescentes. Preguntas de investigación 1. ¿Conocen los padres de familia (tutores), los riesgos (Doxing, Ciberbullying, Sexting, ¿Grooaming) y sus efectos en los adolescentes que existen al navegar en el ciberespacio? 2. ¿Conocen los padres de familia (tutores) el uso y el comportamiento que tienen los adolescentes a la hora de navegar en el ciberespacio? 3. ¿Cuáles son las aplicaciones, sitios, páginas y juegos que los adolescentes utilizan con mayor frecuencia? ¿Cuál es la atracción de los adolescentes al interactuar con el ciberespacio? 4. ¿Qué nivel de conocimiento tienen los adolescentes acerca de los riesgos que existen en el ciberespacio (Doxing, Sexting, Ciberbullying, Grooming)? 5. ¿Qué medidas toman los tutores (padres de familia) para evitar los riesgos (Doxing, Sexting, Ciberbullying, Grooming) en los adolescentes de sexto semestre de preparatoria del Colegio “Diego Rivera”, al navegar en el ciberespacio? 6. ¿Los padres de familia (tutores) conocen el procedimiento y/o técnica adecuada de seguridad que ofrece el Control Parental? 7. ¿Qué importancia toma el control parental para la protección de los adolescentes, cuando navegan en el ciberespacio? Objetivo general Estudiar los riesgos Cibernéticos (Doxing, Ciberbullying, Sexting, Grooaming) y los medios de seguridad, que utiliza el control parental, en los adolescentes del sexto semestre de Preparatoria del Colegio “Diego Rivera”. Objetivos específicos  Conocer los riesgos cibernéticos, sus características y sus efectos.  Estudiar el uso y el comportamiento que tienen los adolescentes del sexto semestre de preparatoria del Colegio “Diego Rivera”, al navegar en el ciberespacio.  Indagar que aplicaciones, sitios, páginas, juegos, utilizan con mayor frecuencia.  Buscar cuál es la finalidad de interactuar con estos espacios, que les atrae, que satisface en ellos.  Preguntar si conocen los riesgos que existen en el ciberespacio (Doxing, Ciberbullying, Sexting, Grooaming).  Indagar a los Padres de Familia (Tutores) si tienen conocimiento de la existencia de las medidas de seguridad del Control Parental, en la interacción que sus hijos realizan con el ciberespacio.  Dar a conocer los riesgos del ciberespacio en el cual interactúan los adolescentes, así como las medidas de seguridad que utiliza el control Parental.
  • 46. 45  Aportar propuestas de uso a los Tutores y adolescentes en la interacción con el ciberespacio, a través del Control Parental, y de las leyes que rigen en este ámbito. Estado del arte Definición de Cibernética La Universidad La Salle, México (2019) expresa que, en la actualidad, el concepto de Cibernética es tan vigente como en sus inicios; sin embargo, es importante considerar que ésta ha evolucionado conforme al paso de las décadas. Y se describe que la Cibernética es la ciencia de los sistemas de control y comunicación basados en retroalimentación, soportados o impulsados por la computación, particularmente en su relación con los seres vivos y el ser humano. Definición de Riesgo Según la OMS (2011) dice que un factor de riesgo es cualquier rasgo, característica o exposición de un individuo que aumente su probabilidad de sufrir una enfermedad o lesión. Entre los factores de riesgo más importantes cabe citar la insuficiencia ponderal, las prácticas sexuales de riesgo, la hipertensión, el consumo de tabaco y alcohol, el agua insalubre, las deficiencias del saneamiento y la falta de higiene. Definición de Riesgo cibernético De acuerdo con el Instituto Nacional de Estándares y Tecnología de los Estados Unidos de Norteamérica (NIST por sus siglas en inglés) (2019), se define el riesgo cibernético como el riesgo de pérdida financiera, interrupción operativa o daño, debido a la falla de las tecnologías digitales empleadas para funciones informativas/operativas introducidas a un sistema por medios electrónicos sin acceso autorizado, para el uso, divulgación, interrupción, modificación o destrucción de los sistemas. Definición de Doxing o Robo de información Kaspersky Internet Security (2021) argumenta que el término “doxing”, es la abreviación de “exponer dox”, siendo “dox” un término coloquial para referirse a los documentos. Por lo general, es una acción maliciosa que un hacker realiza contra personas con las que está en desacuerdo o que considera desagradable. El doxing (a veces escrito como doxxing) consiste en revelar información identificadora de una persona en línea, como su nombre real, dirección particular, lugar de trabajo, teléfono, datos financieros y otra información personal. Luego, esta información se divulga al público sin el permiso de la víctima. Definición de Cyberbullying Ciberbullying es una adaptación de las palabras en inglés cyber y bullying; en español lo conocemos como ciber abuso o violencia entre iguales. Como lo hace notar Corona (2017) participante de la Asociación de Internet MX, ciberbullying es un término que se utiliza para describir cuando un niño o adolescente es molestado, amenazado, acosado, humillado, avergonzado o abusado por otro niño o adolescente, a través de Internet o cualquier medio de comunicación como teléfonos móviles o tablets. Definición de Sexting Como expresa Robot (2016) El concepto de “Sexting” trata de una palabra compuesta de otras dos: “sexo” y “texting“, y es un concepto que presupone compartir información íntima a través de mensajes de texto, fotos o videos.
  • 47. 46 Actualmente, las tecnologías de las que disponemos hacen que el sexting sea una actividad que no requiere de ningún esfuerzo. Con un solo clic puedes hacerte fotos y enviarlas mediante una app de mensajería instantánea (del tipo de WhatsApp, Viber, Snapchat o Skype), escribir mensajes personales en redes sociales o cualquier otra forma de compartir información. Definición de Grooming Pereira (2020) argumenta que el grooming es un problema relacionado con la seguridad de los menores cuando navegan por las redes sociales, el cual consiste en acciones premeditadas por parte de un adulto con el fin de estrechar lazos de amistad con un menor para obtener una satisfacción sexual mediante imágenes eróticas o pornográficas del menor o incluso como premisa para un encuentro sexual. Normalmente, los groomers se hacen pasar por menores de edad para poder contactar con los niños, ganarse su confianza y lograr que les envíen fotos o videos comprometidos (de desnudos o actitudes sexuales explícitas) para luego manipularles de revelarlos públicamente y así conseguir un abuso sexual en la realidad. Seguridad cibernética Gómez (2010), en su obra Enciclopedia de la Seguridad Informática, define el concepto de seguridad cibernética como cualquier medida que impida la ejecución de operaciones no autorizadas sobre un sistema o red informática, cuyos efectos puedan conllevar daños sobre la información, comprometer su confidencialidad, autenticidad o integridad, disminuir el rendimiento de los equipos o bloquear el acceso de usuarios autorizados al sistema. Definición de Control Parental Álvarez et al (2019). Refiere que se llama Control Parental a cualquier herramienta que permita a los padres controlar y/o limitar el contenido que un menor puede utilizar en la computadora o accediendo en Internet. Estas herramientas pueden ser automatizadas o no. Las herramientas automatizadas son aplicaciones para la computadora que permiten trabajar en dos niveles de seguridad: la prevención y el control. Ninguna de estas herramientas es 100% efectiva por lo que debemos ser conscientes de la importancia de las herramientas no automatizadas: la educación y la concientización. El diálogo con los menores es la mejor herramienta de prevención para los riesgos que existen en la red. Metodología utilizada La metodología para esta investigación es de tipo exploratoria, al estudiar los tipos de riesgos que existen en el ciberespacio. También es de cohorte descriptivo se describen las variables dependientes e independientes del objeto en estudio, así como los medios de seguridad que utiliza el control parental. Esta investigación cuenta con el universo o población, de 46 actores, 16 alumnos (adolescentes) del sexto semestre de preparatoria, 22 padres de familia (tutores) y 8 profesores, del Colegio Diego Rivera; de la Ciudad de Tuxtla Gutiérrez, Chiapas. Las unidades básicas de investigación la conforman los padres de familia (tutores), profesores y adolescentes de los grupos de sexto semestre de Preparatoria. Esto con el propósito de recolectar información necesaria. El tipo de muestra es de tipo probabilística, en razón a que todos los elementos a estudiar tienen la misma probabilidad de formar parte de la muestra, y se obtienen definiendo las características de la población y el tamaño de la muestra, considerando el alcance y la selección de forma aleatoria, las cuales se realizaron con la fórmula estadística. Para el desarrollo de esta investigación se utilizaron técnicas de recolección de datos, como son las
  • 48. 47 Encuestas, con preguntas de tipo dicotómicas y de opción múltiple, se diseñaron tres tipos de encuestas, las cuales se implementaron a través de formularios google en línea. Plan de procesamiento de la información, se utilizó el siguiente criterio:  Levantamiento de información  Clasificación de la información  Registro de la información  Análisis de la información obtenida  Verificación de la información  Archivo de la información Resultados experimentales Gráfica 1: Representación gráfica de la opinión de los alumnos del Colegio Diego Rivera. Fuente: Elaboración propia, encuesta realizada en línea. De acuerdo con los datos que se muestran en la gráfica, se observa que la mayoría de los adolescentes han escuchado hablar de los riesgos cibernéticos, el 100% confirma que si conoce el riesgo de ciberbulliyng, puesto que, es el tema más relevante hoy en día, de igual forma un 100% conoce el riesgo sexting ya que es una práctica muy común entre los adolescentes, el 93.8% menciona que conocen o ha oído hablar del tema de grooming, el 62.5% ha escuchado hablar acerca del doxing, y el 6.3% señala que no ha oído hablar de ninguno de estos riesgos lo que demuestra el poco interés que existe en el tema aun siendo un peligro constante para los adolescentes
  • 49. 48 Gráfica 2: Representación gráfica de la opinión de los alumnos del Colegio Diego Rivera. Fuente: Elaboración propia, encuesta realizada en línea. La integridad del adolescente es de suma importancia es por ello esta pregunta donde el 56.3% respondió que no ha sufrido discriminación al navegar en el ciberespacio, el 37.5% de los adolescentes ha sufrido de 1 a 3 veces discriminación al navegar en el ciberespacio, por último, el 6.3% ha sufrido discriminación de 3 a 10 veces en las redes sociales, lo que los convierte en víctimas de ciberbullying. Gráfica 3: Representación gráfica de la opinión de los alumnos del Colegio Diego Rivera. Fuente: Elaboración propia, encuesta realizada en línea. De acuerdo a las respuestas obtenidas en la encuesta para esta pregunta se observa que el 81.3 % de los adolescentes no ha utilizado ninguna de las aplicaciones de control parental que son mencionadas lo que indica que no las conocen, no saben utilizarlas, el 12.5% ha utilizado Parental control bar para restringir lo que hace su adolescente, el 6.3% a utilizado Youtube Kids, el 6.3% ha utilizado Bsecure, el otro 6.3% usa Norton Online Family y el resto del 6.3% utiliza FoxFilter. Con estos porcentajes podemos observar que existen adolescentes que, si han utilizado algunas de estas aplicaciones, lo que quiere decir que si han hecho algo al respecto con respecto a su seguridad física y moral. Conclusión Esta investigación da cuenta del estudio de los riesgos cibernéticos que existen hoy día, estos usos se han incrementado más, en este tiempo, debido a la pandemia en la cual estamos más inmersos al uso del computador, en este estudio se describieron los diferentes tipos de riesgo que existen en el ciber espacio, los cuales ocasionan y dañan a los adolescentes, mentalmente, físicamente, moralmente, hay causas y efectos muy graves, que han llegado a perdidas lamentables. Es por ello que este estudio, se sustenta en los riesgos, y las consecuencias de estos. Cabe señalar que estas gráficas únicamente refieren a las encuestas realizadas a los adolecentes, en la gráfica 13; se pueden observar los resultados en cuestión, en donde se pregunta si los adolescentes conocen de los
  • 50. 49 riesgos en el ciber espacio, como es el ciberbulling, el grooming, el sexing, y el doxing, y el porcentaje que arroja la encuesta es del 100 %, esto quiere decir que los adolescentes tienen el conocimiento de la existencia de este tipo de riesgos, en la pregunta 15 el 37.5% de los adolescentes, ha sufrido de 1 a 3 veces discriminación al navegar en el ciberespacio, y el 6.3% ha sufrido discriminación de 3 a 10 veces en las redes sociales, con estos datos se convierten en víctimas de ciberbullying, aportación de Corona (2017). Así también en la pregunta 26 indica si han utilizado medidas de control parental el 81.3 % de los adolescentes no ha utilizado ninguna de las aplicaciones de control parental que son mencionadas lo que indica que no las conocen, el 12.5% ha utilizado Parental control bar, el 6.3% ha utilizado Youtube Kids, el 6.3% ha utilizado Bsecure, el otro 6.3% usa Norton Online Family y el resto del 6.3% utiliza FoxFilter. Con estos resultados de gráficas más sobresalientes en cuanto a la investigación, se puede dilucidar del riesgo en el cual están inmersos los adolescentes en la cotidianeidad, es relevante implementar procesos de enculturamiento relativos a las medidas de seguridad que ofrece el control Parental, esto debe ser parte de las políticas públicas del sistema educativo y del sistema social-familiar, las propuestas de esta investigación están sustentadas en el funcionamiento de herramientas más sobre salientes en cuanto a medidas de seguridad del Control Parental. Manuel Castells (2006) menciona de la sociedad informacional en la cual vivimos y que día a día, las tecnologías de información rebasan nuestra autonomía. En otro tenor Peter Druker (2018) señala que las TIC acercan al ser humano y optimizan los procesos. Dos conceptualizaciones lógicas. Este estudio dictamina tener cuidado, atención, precaución en el uso y adopción, del ciber espacio, el comportamiento de cada actor es diversificado en cuanto a usos, gustos preferencias y hábitos. Referencias [1] Álvarez García, D., García, T., Fernández Cueli, M. S., & Núñez, J. C. (2019). Control parental del uso de Internet durante la adolescencia: evolución y diferencias de género. Revista iberoamericana de diagnóstico y evaluación psicológica, 51 (2), p. 19-31 (2019); doi: 10.21865/RIDEP51. 2.02. http://bibliomed.usac.edu.gt/tesis/post/2015/064.pdf. [2] Álvaro Gómez (febrero 2010), en su obra Enciclopedia de la Seguridad Informática, Capital humano N°185 pág. 68. [3] Castro Cooz, V. A., & Baldillo Quinatoa, M. B. (2015). Diseño de estrategias comunicacionales para la aplicación del control parental dirigido a estudiantes y padres de familia del tercer año de educación básica paralelo b de la escuela fiscal mixta n° 111 Dr. Otto Arosemena Gómez de Guayaquil (Bachelor's thesis, Guayaquil: ULVR, 2015.). [4] Capano, A., y Ubach, A. (2013). Estilos parentales, Parentalidad Positiva y formación de padres. Ciencias Psicológicas VII (1): 83 -95. [5] Chicano Tejada, E. (2014). Gestión de incidentes de seguridad informática (1.a ed., Vol. 1) [Libro electrónico]. IC. https://books.google.es/books?hl=es&lr=&id=y63KCQAAQBAJ&oi=fnd&pg=PT4&dq=definicion+de+s eguridad+informatica&ots=zoyxncAboP&sig=HL- nkxzuglZgfDUAWr_W4uU_tU8#v=onepage&q&f=true [6] González, C. (2020, 15 octubre). Ciberbullying: definición, características y tipologías. Guía Emagister. https://www.emagister.com/blog/ciberbullying-definicion-caracteristicas-tipologias/ [7] Hernández, S. (2018). Metodología de la investigación: las rutas cuantitativa, cualitativa y mixta. McGraw Hill México. [8] Kaspersky Internet Security (2021, 9 febrero). Doxing: definición y explicación. latam.kaspersky.com. https://latam.kaspersky.com/resource-center/definitions/what-is-doxing [9] Morales, Y. et al (2020, 14 agosto). ¿Qué es el grooming y sexting y por qué los jóvenes minimizan los riesgos de internet? Chiapasparalelo. https://www.chiapasparalelo.com/noticias/chiapas/2020/08/que-es-el- grooming-y-sexting-y-por-que-los-jovenes-minimizan-los-riesgos-de-internet/ [10] Rivera, S (2019). Los Riegos cibernéticos. Boletín Criminológico N. 11 Instituto de Criminología Universidad de Santiago de Compostela. https://www.usc.es/export9/sites/webinstitucional/gl/institutos/criminoloxia/descargas/Los_Delitos_Infor mxticos.pdf
  • 51. 50 [11] Vieites, Á. G. (2011). Enciclopedia de la seguridad informática (Vol. 6). Grupo Editorial RA-MA. https://books.google.es/books?hl=es&lr=&id=Bq8- DwAAQBAJ&oi=fnd&pg=PT2&dq=definicion+de+seguridad+informatica&ots=dxk5ZjWhjH&sig=ITsp Wrizsj5WAT_k8j5tIWccuI4#v=onepage&q&f=false
  • 52. 51 Diseño de instrumento para evaluar el pensamiento computacional en alumnos de ingeniería que cursan la asignatura de Programación Competencias en TIC Janette Araceli Castellanos Barajas1 , Abelardo Gómez Andrade2, María Elena Romero Gastelú3 1 janette.castellanos@academicos.udg.mx, 2 abelardo.gandrade@academicos.udg.mx, 3 elena.romero@academicos.udg.mx, 1, 2, 3 Universidad de Guadalajara, Centro Universitario de Ciencias Exactas e Ingenierías, División de Electrónica y Computación, Departamento de Ciencias Computacionales, Módulo “O” Planta Baja, Blvd. Marcelino García Barragán #1421, esq. Calzada Olímpica, C.P. 44430, Guadalajara, Jalisco, México. Resumen: El siguiente trabajo presenta el diseño de un test que tiene por objetivo determinar el nivel del “Pensamiento computacional” en alumnos que cursan las asignaturas de Programación y Programación Aplicada a la Ingeniería con claves I5882 e IC589 respectivamente, en ciclo escolar 2021B en el Centro Universitario de Ciencias Exactas e Ingenierías de la Universidad de Guadalajara. El instrumento se realizó utilizando el software Scratch por sus similitudes con los contenidos de los programas de estudio. Este cuestionario permitirá conocer la percepción de cómo el alumno interpreta algunos planteamientos relacionados con bloques de instrucciones para solucionar un problema. Palabras clave: Lenguaje C, Pensamiento computacional, Programación, Scratch. Abstract. The following work presents the design of a test that aims to determine the level of "Computational Thinking" in students who take the subjects of Programming and Programming Applied to Engineering with codes, I5882 and IC589 in school year 2021B at the University Center of Exact Sciences and Engineering from the University of Guadalajara. The instrument was made using Scratch software due to its similarities with the contents of the study programs. This questionnaire will allow to know the perception of how the student interprets some approaches related to blocks of instructions to solve a problem. Keywords: Computational Thinking, Language C, Programming, Scratch. 1 Introducción “En este mundo de la era digital, en el que vivimos, una de las competencias fundamentales que los estudiantes deben adquirir es la del Pensamiento Computacional. Aunque no existe un consenso general sobre una definición, existe una comprensión general de la misma como un conjunto de habilidades y actitudes necesarias para la resolución, con o sin computadora, de los problemas que puedan surgir en cualquier ámbito de la vida. Medir y evaluar cuál de las competencias adquiridas por los alumnos es fundamental y, para ello, instrumentos de medida previamente validados deben ser usados” [1]. Por lo anterior, el conocer el grado de pensamiento computacional en los alumnos de las carreras de Ingeniería Informática e Ingeniería en Computación es esencial para facilitar su éxito profesional. Estas carreras pertenecen a la División de Electrónica y Computación de la Universidad de Guadalajara del Centro Universitario de Ciencias Exactas e Ingenierías. Profesores involucrados en este proceso de enseñanza – aprendizaje y que impartimos las materias de Programación y Teoría de la Computación, formularon las siguientes interrogantes: ¿Cómo es el nivel de pensamiento computacional en los alumnos de primer ingreso a las carreras de ingenierías? ¿Cómo se puede medir este nivel de pensamiento computacional? ¿Se puede diseñar un instrumento adecuado a los estudiantes de nuestras carreras? 2 Estado del Arte
  • 53. 52 “Es sabido que el Pensamiento Computacional carece de un marco de referencia común que determine cuál es su definición y los componentes que lo forman y este hecho provoca un vacío en el desarrollo de metodologías y herramientas de evaluación. En consecuencia, existe la necesidad de llevar a cabo estudios que evidencien el efecto del aprendizaje de la programación informática en el desarrollo del Pensamiento Computacional, ya que estos no abundan entre la literatura especializada. Se tiene la intención de aportar nuevo contenido que ayude a la construcción de conocimiento sobre cómo evaluar el Pensamiento Computacional en alumnos de Educación Primaria. El estudio se realizó con un cuestionario como herramienta de recogida de información cuantitativa” [2]. “El pensamiento computacional ha sido incorporado formalmente en el sistema educativo de varios países, aunque no hay consenso sobre un marco conceptual para incorporar el pensamiento computacional en el currículo” [3]. En este trabajo de investigación se describe cómo se realizó el estudio para conocer la percepción de los estudiantes sobre el pensamiento computacional, misma que se llevó a cabo con un enfoque cualitativo de alcance descriptivo mediante entrevistas que estuvieron basadas en un recurso de autoevaluación que se representa en forma de escalera, donde cada escalón corresponde al proceso de aprendizaje, respondiendo desde el escalón inferior y fue aplicado a estudiantes que acreditaron la asignatura de introducción a la programación. En una investigación previa consultada se determina el estado inicial de los estudiantes de nuevo ingreso de las carreras de tecnologías de la información de la Universidad Tecnológica de Puebla en México para determinar el desempeño académico en el curso de la Metodología de Programación para el nivel superior. El instrumento midió cinco habilidades del pensamiento computacional, que son abstracción, generalización, descomposición, diseño algorítmico y la evaluación. Se identificó una relación entre los contenidos temáticos del curso y se determinaron las fortalezas y debilidades de los estudiantes con el objetivo de apoyar su desempeño académico. [4] El Pensamiento Computacional ha recibido considerable atención en los últimos años, aunque no existe acuerdo sobre lo que debe incluir una definición de este (Allan et al., 2010; Barr & Stephenson, 2011; National Academies of Science, 2010). Cuny, Snyder, and Wing (2010) definen el Pensamiento Computacional como los “procesos de pensamiento involucrados en formular problemas y encontrar sus soluciones de manera que las soluciones estén representadas de forma tal que puedan llevarse a cabo efectivamente por un agente que procesa información”; descripción ésta que atinadamente (aunque de forma concisa) encuadra el trabajo de los creadores computacionales. [5] Con Scratch, que es un software gratuito, se puede programar historias interactivas propias, juegos, animaciones y compartir las creaciones con otros en la comunidad online. Scratch ayuda a los jóvenes a aprender a pensar de forma creativa, a razonar sistemáticamente, y a trabajar de forma colaborativa con habilidades esenciales para la vida en el siglo XXI. Scratch está diseñado, desarrollado y moderado por Scratch Foundation, una organización sin fines de lucro cuyo sitio oficial es https://scratch.mit.edu/ [6]. Existen otros softwares similares [7] a Scratch, que a través de bloques que representan distintos conceptos de programación, los estudiantes pueden crear personajes animados, videojuegos o hasta vídeos musicales. Cuentan, además, con plantillas que facilitan la tarea ya que con ellas se puede seleccionar y personalizar un escenario, un sonido o un personaje siendo el propio alumnado el que interactúa con ellos mediante el uso de comandos lógicos. Por ejemplo, Bebras es una iniciativa internacional que tiene como objetivo promover la informática (Ciencias de la Computación o Computación) y el pensamiento computacional entre los estudiantes de escuelas de todas las edades. Los participantes suelen estar supervisados por profesores que pueden integrar el desafío Bebras en sus actividades de enseñanza. El desafío se realiza en las escuelas utilizando computadoras o dispositivos móviles. [8] La programación estructurada es un paradigma de programación orientado a mejorar la claridad, calidad y tiempo de desarrollo de un programa de computadora, utilizando únicamente subrutinas y tres estructuras: secuencia, selección (if y switch) e iteración (bucles, for y while), considerando innecesario y contraproducente el uso de la instrucción de transferencia incondicional (GOTO), que podría conducir a "código espagueti", que es mucho más difícil de seguir y de mantener y era la causa de muchos errores de programación. [9] 3 Metodología usada La medición del Pensamiento Computacional se realizará a través de un instrumento tipo test que se aplica a los alumnos de la unidad de aprendizaje de Programación y de Programación Aplicada a la Ingeniería. Se realiza una investigación con un método cuantitativo estadístico, mediante la técnica del cuestionario y la interpretación de los datos recabados. El paradigma positivista (cuantitativo) busca descubrir el conocimiento a partir de relaciones causa-efecto con las que pretende controlar, explicar y predecir hechos. El investigador
  • 54. 53 busca la neutralidad y hace que prevalezca la objetividad. Este instrumento se centra en aspectos observables que sean posibles de cuantificar y sean libres de valores. [10] La unidad de aprendizaje de “Programación”, para toda carrera orientada a las Tecnologías de la Información y la Comunicación (TICs) de nivel superior, es fundamental para la adecuada adquisición de conocimientos en muchas otras unidades posteriores de las carreras de Ingeniería en Computación (INCO) e Ingeniería Informática (INNI). El nivel de aprovechamiento logrado en la unidad de aprendizaje de “Programación” incide de manera importante, en la de “Estructuras de Datos”, entre otras; esta última presenta un alto índice de reprobación y deserción en las carreras antes mencionadas, que se imparten en el Centro Universitario de Ciencias Exactas e Ingenierías en la Universidad de Guadalajara. Se sabe que un número importante de estudiantes ha estudiado previamente cursos de Programación de computadoras, y que se han formado en sistemas de nivel medio superior. Sin embargo, se desconoce con qué herramientas han aprendido a programar y a qué nivel y de la misma forma se desconoce en qué sistemas de nivel medio superior aprenden a programar. Por lo anterior es necesario conocer si estos cursos previos han fortalecido el pensamiento computacional en alumnos de primer ingreso a carreras de ingenierías. [11] La frase Pensamiento Computacional nos ayuda a pensar sobre el aprendizaje con Scratch; existe la creencia de que programar con Scratch ofrece un contexto y un conjunto de oportunidades para contribuir en la conversación activa sobre Pensamiento Computacional. Existe el interés sobre la forma en que las actividades de aprendizaje basadas en diseño, particularmente la programación de medios interactivos apoya el desarrollo del Pensamiento Computacional en los jóvenes. Ese interés lo estimula, en parte, la creciente disponibilidad de herramientas que permiten a los jóvenes diseñar sus propios medios interactivos. Pero, más importante aún, ese interés hunde sus raíces en el compromiso de aprender mediante el diseño de actividades, enfoque constructivista del aprendizaje que resalta la importancia de que los jóvenes se comprometan o involucren con el desarrollo de artefactos externos (Kafai & Resnick, 1996). [5] Durante los últimos años, estudiando la actividad de la comunidad en línea de Scratch y de los talleres sobre Scratch, se ha desarrollado una definición de Pensamiento Computacional que incluye tres dimensiones clave: conceptos computacionales (los que emplean los diseñadores a medida que programan); prácticas computacionales (las que desarrollan los diseñadores a medida que programan) y perspectivas computacionales (las que los diseñadores construyen sobre el mundo a su alrededor y sobre ellos mismos). [5] Pasos: 1. Identificar la muestra: La muestra se corresponde al 20% de la matrícula de 1710 alumnos de primer semestre que cursan la materia de Programación y de Programación Aplicada a la Ingeniería, del ciclo escolar 2021B, de las carreras de Ingeniería Informática, Ingeniería en Computación, Ingeniería en Comunicaciones y Electrónica, Ingeniería Biomédica e Ingeniería Civil, quienes tienen edades entre 18 y 24 años, de ambos sexos, con estudios previos de bachillerato, todos alumnos del Centro Universitario de Ciencias Exactas e Ingenierías. 2. Diseñar el instrumento: El instrumento se diseñó con un formulario de Google y se ilustró con imágenes que se generaron con Scratch, para lo cual se tomó como referencia la propuesta de Cerreata, [12] la cual revisó y se rectificó a los programas de estudio I5882 e IC589. El Scratch por sus ventajas y características se adapta mejor a los programas de estudios a los que pertenecen los alumnos que participan en este estudio, por lo que se optó por utilizar este software. 3. Validar el instrumento: El instrumento fue validado por el Jefe del Departamento de Ciencias Computacionales, el Dr. Arturo Valdivia González y por la Dra. Lizbeth Sabrina Vega Maldonado, Coordinadora de la Maestría en Ciencias en Ingeniería Electrónica y Computación, ambas autoridades pertenecen a la División de Electrónica y Computación. Entre los aspectos que se consideraron para validar este instrumento están algunos, tales como el empleo de términos comprensibles para los participantes, la confiabilidad de los resultados o la correcta secuenciación de los reactivos entre otros. 4. Aplicar el instrumento: El instrumento se aplicó con el apoyo de los profesores de la Academia de Programación del Departamento de Ciencias Computacionales que imparten las materias de Programación y de Programación Aplicada a la Ingeniería. Es importante mencionar que ambos programas de estudio son similares en la mayoría de los temas, a continuación, se muestra en la Tabla 1 el comparativo de temas de ambas materias y su equivalente en Scratch. Programación I5882 Programación aplicada a la ingeniería IC589 Scratch 68 horas 51 horas 20 horas
  • 55. 54 1. Programación estructurada 2. Arreglos 3. Manejo de funciones 4. Registros 1. Programación estructurada 2. Arreglos 3. Manejo de funciones 1. Pensamiento computacional 2. Conceptos del pensamiento computacional ● Secuencias ● Ciclos ● Eventos ● Paralelismo ● Condicionales ● Operadores ● Datos Tabla 1. Comparativo temático de I5882, IC589 y Scratch. 4 Resultados El instrumento consta de cuatro secciones y veinte reactivos que a continuación se muestran. En la sección uno se muestra el objetivo del test y su información general sobre los antecedentes de programación de los estudiantes: ● Objetivo del test: El presente test tiene por objetivo determinar el nivel del “Pensamiento computacional” en alumnos que cursan las asignaturas con claves I5882 e IC589 en el ciclo escolar 2021B. ● La información general sobre los antecedentes de programación: ○ Código de estudiante ○ Carrera ○ ¿Has llevado otros cursos de programación previamente al actual? ○ ¿Desde cuándo practicas la programación? Selecciona la respuesta que sea la más cercana al tiempo que tienes programando. ○ ¿Has utilizado el software Scratch? ○ ¿Has recibido apoyo o ayuda para aprender a programar de algún familiar o amigo fuera de la escuela? Imagen 1. Sección uno del test. La sección dos tiene por objetivo medir la apreciación sobre conceptos básicos de programación y la sección
  • 56. 55 tres tiene por objetivo medir otros conceptos desde el punto de vista de la práctica de la programación. Imagen 2. Sección dos del test. En la Tabla 2 se enlistan los reactivos que se plantean en las secciones dos y tres. Reactivo y escalas de evaluación Los siguientes reactivos se evalúan con las siguientes escalas: Con valores del 1 al 5, donde: ● el 1 representa “No comprendo el concepto” ● el 5 representa “Comprendo completamente el concepto” Analiza el bloque propuesto. (A.1) ¿Entiendes el concepto de "una secuencia de instrucciones en el bloque presentado”? Analiza el bloque propuesto. (A.2) Ciclos: ¿has entendido bien el concepto de los ciclos en el bloque presentado y para qué sirven? Mira la diferencia entre indicar varios bloques repetidos o indicar un ciclo con dos instrucciones anidadas en el siguiente ejemplo. Analiza los bloques propuestos. (A.3) Eventos: ¿has entendido la finalidad de los eventos en el bloque presentado? Por ejemplo, cuando enviábamos un mensaje de un bloque a otro. Analiza los bloques propuestos. (A.4) Paralelismo: ¿has entendido el concepto de paralelismo entre bloques, en el bloque presentado a continuación? Es decir, cada bloque tiene su propia secuencia de instrucciones, por ejemplo, supongamos que cada bloque es un jugador de fútbol, para cada uno de ellos se define una secuencia de instrucciones para moverse en una cancha. Analiza el bloque propuesto. (A.5) Condicionales: ¿has entendido para qué se utilizan las instrucciones condicionales en el bloque presentado? Es decir, llevar a cabo una acción u otra según lo ocurrido o según el valor de una variable. En este bloque se representa lo siguiente: Si toca el borde se acaba el juego, si no sigue avanzando. Analiza el bloque propuesto. (A.6) Operadores: ¿has entendido para qué podemos utilizar las instrucciones de tipo operadores en el bloque presentado? Analiza el bloque propuesto. (A.7) Datos: Las variables nos permiten guardar y recuperar datos. En este ejemplo: la variable es el marcador A y se le suma un punto (dato) al meter un gol. ¿Has entendido cómo guardar y recuperar datos en el bloque presentado? (A.8) Práctica incremental e iterativa: este concepto se refiere a desarrollar las aplicaciones buscando la solución poco a poco, probando opciones y adaptándolas en cada momento. (A.9) Práctica de ensayo y depuración: Este concepto se refiere que, durante el desarrollo de una aplicación, cuando se detecta algún problema, se busca dónde se encuentra el error realizando diversas pruebas. (A.10) Práctica de reusar y remezclar: Este concepto se refiere a reutilizar parte de las instrucciones realizadas previamente en otros proyectos o en otros bloques para no tener que llevarlos a cabo de nuevo. (A.11) Práctica de abstraer y modularizar: Este concepto se refiere a que en el diseño de aplicaciones organizas en módulos independientes grupos de instrucciones, cada grupo con un fin específico. Por ejemplo, podría haber un módulo para realizar los movimientos de los jugadores y otro para indicar que hay que sumar un punto en el marcador. Tabla 2. Listado de reactivos de las secciones dos y tres del test.
  • 57. 56 Imagen 3. Sección tres del test. En la sección 4 se presentan las bondades del software Scratch, tales como desarrollar la creatividad, compartir trabajos, trabajar colaborativamente, ayuda a aprender a programar entre otras ventajas; sus reactivos se muestran en la Tabla 3. Reactivo Tipo de respuesta (A.12) Perspectiva de expresar: Consideras que, del análisis de las imágenes de las preguntas anteriores, el software Scratch te permitiría desarrollar tu capacidad creativa. Escala lineal Con valores del 1 al 5 Donde: * el 1 representa “En desacuerdo” * el 5 representa “Totalmente de acuerdo” (A.13) Perspectiva de conectar: Scratch permite compartir tus trabajos con otros usuarios, así como utilizar otros que ya han sido creados a través de una comunidad virtual. ¿Te parece esto interesante y productivo? Escala lineal Con valores del 1 al 5 Donde: * el 1 representa “En desacuerdo” * el 5 representa “Totalmente de acuerdo” (A.14) Perspectiva de preguntar: ¿crees que el software Scratch te ayudaría a aprender a programar? Escala lineal Con valores del 1 al 5 Donde: * el 1 representa “En desacuerdo” * el 5 representa “Totalmente de acuerdo” Tabla 3. Bondades del software Scratch Imagen 4. Sección cuatro del test. A continuación (Tabla 4) se ilustran dos ejemplos con bloques diseñados para Scratch. Bloque de Scratch Significado Se refiere a eventos entre bloques de sentencias, por ejemplo, cuando se envía un mensaje de un bloque a otro. Analiza los bloques propuestos. (A.3)
  • 58. 57 Se refiere a cómo las variables permiten guardar y recuperar datos. Tabla 4. Significado de algunos bloques con Scratch El test fue respondido por 365 estudiantes de las carreras participantes, dónde 99 son alumnos de Informática y 77 de Computación. El 65% de los estudiantes no han llevado cursos de programación previos. Son 215 estudiantes los que están cursando su primer curso de programación y 19 estudiantes tienen 4 años programando. De los participantes 92% no ha utilizado Scratch. Sólo 83 alumnos reciben apoyo de un amigo o familiar para aprender a programar. Con respecto a la evaluación de los bloques de Scratch que representan conceptos básicos de programación se encontró que: ● Para el de “secuencia de instrucciones” 112 alumnos dicen comprender completamente el concepto. ● Para el de “ciclos” 107 estudiantes comprenden completamente el concepto. ● Para el de “eventos” en las escalas de evaluación 3 y 4 fueron en ambos casos 76 estudiantes que tuvieron esta opinión. ● Para el de “paralelismo entre eventos” la mayoría de las opiniones, que fueron 89, se reflejaron en la escala de evaluación 3. ● Para el de “condicionales” fueron 129 alumnos quienes respondieron que comprenden completamente el concepto. ● Para el de “operadores” 118 estudiantes opinaron que comprenden completamente el concepto. ● Para el de “dato” sólo 85 personas respondieron que comprenden completamente el concepto. En la siguiente sección del test, que abarca otros conceptos de Scratch relativos a la programación, respondieron de la siguiente manera: ● Sobre el de diseñar aplicaciones de manera incremental, la tendencia de las respuestas fue en la escala de evaluación 3, con 105 opiniones. ● Sobre el de depurar programas y buscar errores, 133 estudiantes opinaron que comprenden completamente el concepto. ● Sobre el de reutilizar código 128 alumnos, opinaron que comprenden completamente el concepto. ● Sobre el de modular el código en funciones, fueron 100 opiones para la escala de evaluación 3. Por otra parte, para la sección de Bondades de Scratch, se obtuvieron las siguientes opiniones: ● Se obtuvieron 107 opiniones a favor de que este software permite desarrollar su capacidad creativa. ● Fueron 166 alumnos quienes opinaron que es interesante compartir de forma colaborativa los trabajos de Scratch. ● 134 alumnos opinaron que este software si les ayudará a aprender a programar, Imagen 5.
  • 59. 58 Imagen 5. Reactivo A.14 ¿Crees que el software Scratch te ayudaría a aprender a programar? De los participantes son 172 lo que representa el 47% alumnos quienes obtuvieron una calificación menor o igual que 3 y que se les impartirá un curso de nivelación, pero con Scratch, quienes al final se les aplicará otro test diferente para evaluarlos. 5 Conclusiones y trabajos futuros Se revisaron diferentes fuentes de información, que permitieron a los autores conocer sobre distintas formas de medir el pensamiento computacional, identificando similitudes entre ellas. Sin embargo, se diseñó un instrumento propio, adaptándolo al programa de estudios de las asignaturas de Programación y de Programación Aplicada a la Ingeniería. Entre los resultados obtenidos más relevantes se encontró que la mayoría de los alumnos consideran que Scratch les ayudará a aprender a programar, de forma creativa y colaborativa. Se identificó que el 65% de los estudiantes no han tomado otro curso de programación, y sólo el 47 % de los participantes obtuvo una calificación menor o igual a 3 en test de Scratch. De los 172 alumnos que van a tomar el curso 76 de ellos son alumnos de Informática o Computación. De los 365 participantes 68 obtuvieron una calificación de 5, de los cuales 12 son de Civil, 10 de Biomédica, 10 de Comunicaciones y Electrónica, 13 de Computación y 23 de Informática. Se diseñará un curso de Scratch como una opción diferente para reforzar el aprendizaje del paradigma de programación estructurada, que, aunque no sea con Lenguaje C, si será con una herramienta diferente y que posiblemente sea bien aceptada por los estudiantes. El curso se impartirá a quienes obtengan un puntaje menor a cuatro. Al finalizar el curso se aplicará un nuevo instrumento de evaluación para medir el pensamiento computacional posterior al curso de Scratch. Como parte de los trabajos futuros que se realizarán para dar seguimiento a esta investigación se realizará un análisis exhaustivo para comprobar que la implementación del curso de Scratch y su impartición a los estudiantes que lo requieren ha hecho que mejoren sus habilidades en programación. Referencias [1] Varela, C., Rebollar, C., García, O., Bravo, E., Bilbao, J. (2019). Skills in computational thinking of engineering students of the first school year. Heliyon, Volume 5, Issue 11, ISSN 2405-8440. Consultado el 08 de agosto de 2021. En: https://doi.org/10.1016/j.heliyon.2019.e02820. (https://www.sciencedirect.com/science/article/pii/S2405844019364801) [2] Pérez, A., Arranz, H. (2017). Evaluación del Pensamiento Computacional en Educación. Dialnet. Consultado: 08 de agosto de 2021. En: https://dialnet.unirioja.es/servlet/articulo?codigo=6484848 [3] Pérez, J. (2021). Percepción de estudiantes universitarios sobre el pensamiento computacional. Universidad de Los Andes; Venezuela. Consultado: 08 de agosto de 2021. En: https://polipapers.upv.es/index.php/REDU/article/view/15491 [4] Rojas, A., García, F. (2020). Evaluación de habilidades del pensamiento computacional para predecir el aprendizaje y retención de estudiantes en la asignatura de programación de computadoras en educación superior. Dialnet. Consultado: el 08 de agosto de 2021. En: https://dialnet.unirioja.es/servlet/articulo?codigo=7324946 [5] Brennan, K, y Resnick, M. (2012). Nuevas propuestas para evaluar el Pensamiento Computacional. Eduteka. Consultado: el: 06 de abril de 2021. En: http://eduteka.icesi.edu.co/articulos/EvaluarPensamientoComputacional [6] Scratch. Consultado el: 06 de abril de 2021. En: https://scratch.mit.edu/ [7 ] Educación 3.0. No sólo Scratch: 15 lenguajes y plataformas para enseñar programación en Primaria y Secundaria. Consultado: el 07 de mayo de 2021. En: https://www.educaciontrespuntocero.com/recursos/programacion/lenguajes-programacion-informatica-para- primaria-secundaria/ [8] Bebras. Consultado en: 08 de agosto de 2021. En: https://www.bebras.org/ [9] EcuRed. Programación Estructurada. Consultado: 07 de mayo de 2021. En: https://www.ecured.cu/Programacion_estructurada [10] Barberá, E. (2008). Aprender e-learning. Barcelona: Paidós. [11] BASOGAIN, Xabier, OLABE, Miguel, OLABE, Juan (2015). Pensamiento Computacional a través de la Programación: Paradigma de Aprendizaje. En RED Revista de Educación a Distancia <https://www.um.es/ead/red/46/Basogain.pdf> Consulta: 20 de marzo de 2021. [12] Cearreta, l. (2015). Scratch como recurso didáctico para el desarrollo del pensamiento computacional de los alumnos de Secundaria y Bachillerato en la asignatura de Informática y como recurso transversal en el resto de las asignaturas (Trabajo Final de Máster). Universidad Internacional de la Rioja, Zumaia (Guipuzcoa).
  • 61. 60 Monitoreo de la actividad física o reposo de pacientes mediante el uso de sensores y servicios en la nube Área de conocimiento: cómputo móvil Irma Alejandra Amaya Patrón1 ; Nicolás Forero Segovia2 y Carlos Alberto Vera Betancourt 2 1 Universidad Autonóma de Baja California, Facultad de Ingeniería, Arquitectura y Diseño, Campus Ensenada, Carretera Transpeninsular Ensenada-Tijuana número 3917, Colonia Playitas, Ensenada, Baja California, C.P. 22860. México iamaya@uabc.edu.mx 2 Universidad Autónoma de Manizalez, Antigua Estación del Ferrocarril, Manizales, Caldas, Colombia nicolas.foreros@autonoma.edu.co, carlos.verab@autonoma.edu.co Resumen. Las aplicaciones móviles de salud o mHealth, permiten el uso y manejo de distintos elementos disponibles en dispositivos móviles tales como: teléfonos inteligentes, tabletas, o tecnología vestible. Los sensores son uno de estos elementos y nuestro caso particular de interés es el acelerómetro. El acelerómetro nos permite determinar el desplazamiento de un objeto de un lugar a otro. Para pacientes en cuidado postoperatorio es importante conocer si han estado en reposo o movimiento. Los métodos de esta propuesta incluyen: el análisis y definición de estrategias de persuasión para promover un cambio en el comportamiento del usuario, así como la definición de los servicios en la nube para el envío de notificaciones al usuario. Como resultado, se propone una aplicación móvil persuasiva para dar seguimiento a la actividad física o reposo del paciente después de una cirugía y así emitir recomendaciones y recompensas sobre sus metas/objetivos relacionados con su recuperación. Palabras clave: cuidados postoperatorios, cómputo móvil, cómputo en la nube. Abstract. The mobile health or mHealth applications allow the use and management of different elements available on mobile devices such as: smartphones, tables or wearable technology. Sensors are one of these elements and in our particular case of interest is the accelerometer. The accelerometer allows us to determine the displacement of an object from one place to another. In patients in postoperative care it is very important to know if they have been rest or movement since they can affect their recovery time. To support the monitoring of postoperative care, a persuasive mobile application is proposed to monitor the patient’s physical activity or rest after surgery to issue recommendations and rewards on their recovery goals/objectives. This document presents the proposed architecture, user interface and persuasion techniques defined for the realization of this project. Keywords: postoperative care, mobile computing, cloud computing. 1 Introducción Gracias al constante incremento en el uso de teléfonos inteligentes, los cuales hacen posible el compartir aplicaciones móviles y la interacción entre miles de personas en el mundo, se han desarrollado muchas aplicaciones relacionadas con la salud que permiten controlar afecciones de salud leves o crónicas, apoyar en la adopción de un estilo de vida saludable o promover comportamientos saludables [1]. Estas aplicaciones móviles de salud o mHealth se definen como: aquellas aplicaciones de salud que se ejecutan en plataformas móviles, como teléfonos inteligentes y tabletas, y se utilizan para gestionar el bienestar y la salud. Las aplicaciones mHealth se caracterizan por la naturaleza iterativa de las intervenciones e interacciones frecuentes del usuario, esto con la finalidad de que ocurra un cambio en el comportamiento del usuario mediante la adopción de estrategias persuasivas [2, 3]. Según Oinas-Kukkonen [4] un sistema persuasivo está definido como un sistema de información
  • 62. 61 diseñado para reforzar, cambiar o moldear actitudes, comportamientos o ambos sin el uso de la coerción ni el engaño. Para desarrollar un sistema persuasivo se cuentan con tres pasos, en los que encontramos: comprender los problemas claves del sistema, análisis del contexto de persuasión y el diseño de sus características. En este último paso se cuentan con diferentes estrategias de persuasión categorizadas que pueden ser implementadas en el sistema a desarrollar, estas se pueden visualizar en la tabla 1 adaptada de [5]. Apoyo a tareas primarias Apoyo al diálogo Apoyo a la credibilidad Apoyo a lo social Reducción Felicitaciones Integridad Aprendizaje social Tunelización Recompensas Experticia Comparación Hecho a la medida Recordatorios Credibilidad superficial Influencia Personalización Sugerencias Sentimiento del mundo real Facilitación Automonitoreo Similitudes Autoridad Cooperación Simulación Agrado Aprobación de terceros Competencia Ensayo Roles sociales Verificabilidad Reconocimiento Tabla 1. Estrategias de diseño para sistemas persuasivos Existen estrategias que han presentado mejor o menor adherencia al momento de persuadir al usuario [1, 3, 6], es por eso que al momento de desarrollar una intervención persuasiva se puede hacer uso de las estrategias que se deseen. Además, no hay una combinación clave de estrategias que nos permitan persuadir efectivamente al usuario [1]. Mediante el uso de sensores nos podemos apoyar en el monitoreo del usuario para así emitir recomendaciones de persuasión. Los acelerómetros son los sensores más utilizados y conocidos que miden la aceleración de objetos en movimiento a lo largo de ejes de referencia y proporcionan recuentos básicos de pasos y actividad utilizados como una evaluación cuantitativa de la actividad física [7]. Mediante dichos sensores, podemos cuantificar la actividad física o el reposo de los pacientes en momentos de eventos médicos. Por tanto, en este trabajo se hará uso de los sensores de teléfonos inteligentes para la obtención de datos relevantes [8] asociados al cuidado postoperatorio de un paciente. 2 Estado del arte Después de una cirugía existe la posibilidad de que se presenten secuelas no deseadas como dolor y diversas complicaciones [9], es por esto que el paciente debe tener una serie de cuidados para asegurar su recuperación como lo es un programa de rehabilitación [10] dentro del cual se puede promover tanto la actividad física para la recuperación [11] así como la inmovilización o descanso [12]. En la tabla 2, podemos observar los trabajos de distintos autores relacionado con el diseño y desarrollo de aplicaciones móviles persuasivas para pacientes con cuidados postoperatorios.
  • 63. 62 Autor(es) Uso de acelerómetro Cuidados postoperatorios Autocuidado Medición de reposo Medición de actividad física Diseño persuasivo mHealth Van der Meij et al. [13] X X X X Panda et al. [8] X X X Furtado et al. [14] X X X Ghomrawi et al.[15] X X X Preeti et al. [16] X Kelders et al. [17] X Alpay et al. [5] X X Oyebode et al. [1] X X Asbjørnsen et al. [6] X X Nahum-Shani et al. [18] X Klasnja et al. [19] X X Rajanna et al. [10] X X Lo et al. [20] X X Tabla 2. Estado del arte sobre aplicaciones y uso de sensores para el cuidado postoperatorio del paciente Después de la revisión de la literatura donde se centró en el monitoreo del paciente y basándose en los conceptos clave acelerómetro, mHealth, diseño persuasivo, cuidados postoperatorios, sensores, autocuidados, medición reposo y medición actividad física, se vio reflejado que no existe un trabajo que relacione todos los conceptos mencionados, tal como puede observarse en la tabla 2. Por esta razón, el presente trabajo permitirá el desarrollo de un prototipo que cuente con todas las características mencionadas tanto en el monitoreo y sensores hacia el paciente como en la intervención persuasiva hacia este. 3 Metodología El desarrollo de este trabajo tiene como fin la construcción de una aplicación móvil que mediante sensores recopile información sobre la actividad física del usuario para monitorear y proveer retroalimentación en intervenciones de salud para pacientes con cuidados postoperatorios. Las actividades que se realizan en el presente trabajo incluyen:  Revisión de la literatura  Selección de las estrategias de monitoreo al paciente  Selección de las estrategias de persuasión  Identificación del funcionamiento y características básicas del prototipo  Selección de la arquitectura del sistema  Elaboración de la interfaz de usuario del prototipo  Construcción del prototipo  Validación y verificación Como parte de la revisión de literatura, se dará lectura a diversos artículos científicos acerca de las intervenciones, técnicas y/o estrategias de monitoreo, estrategias de persuasión, y sobre el diseño de sistemas persuasivos para el cuidado de pacientes postoperatorios mediante una aplicación móvil. Durante la selección de estrategias de monitoreo al paciente, así como la selección de estrategias de persuasión se realizará la búsqueda de las estrategias monitoreo y estrategias para generar un cambio de comportamiento (o mantenerlo) [1, 4] en el paciente haciendo uso de la aplicación. En base a
  • 64. 63 dicha información se seleccionará(n) la(s) estrategia(s) que se considere(n) más adecuada(s) para el proyecto. Considerando así los requerimientos funcionales y no funcionales del sistema a desarrollar, así como las tecnologías a utilizar para diseñar y desarrollar el prototipo. Para finalmente, revisar y comprobar que el prototipo implementado cumple con el funcionamiento para el cual fue diseñado. Durante el desarrollo de este trabajo se considera la implementación de un prototipo para una aplicación móvil centrado en el usuario donde se facilite el monitoreo y retroalimentación al usuario de una forma natural y con la menor cantidad de acciones posibles, propiciando así mejoría en la experiencia del usuario a través de componentes visualmente ricos e interactivos, fáciles de utilizar e intuitivos. 4 Propuesta de trabajo Después de una cirugía existe la posibilidad de que se presenten secuelas no deseadas como dolor y diversas complicaciones [9], es por esto que el paciente debe tener una serie de cuidados para asegurar su recuperación como lo es un programa de rehabilitación [10] dentro del cual se puede promover tanto la actividad física para la recuperación [11] así como la inmovilización o descanso [12]. La propuesta de este trabajo consiste en el desarrollo de una app móvil para poder enviar notificaciones al usuario así como poder hacer uso de los sensores del propio dispositivo para pacientes que se encuentren en cuidados postoperatorios, esto con la finalidad de tener intervenciones de salud derivados de la falta de actividad y/o reposo durante su convalecencia. Para lograrlo, se ha definido la arquitectura del sistema, así como la selección de estrategias a utilizar y el desarrollo del prototipo de la interfaz para la aplicación móvil. 4.1 Arquitectura La arquitectura del sistema comprende las distintas tecnologías a utilizar para el desarrollo de este trabajo.
  • 65. 64 Fig. 1. Arquitectura del sistema En la Fig. 1 puede observarse que se desarrollará una aplicación móvil mediante React Native para crear aplicaciones para Android y iOS. Dicha aplicación hará uso de los sensores del teléfono inteligente, en este caso con el acelerómetro para obtener lectura de datos sobre el desplazamiento o movimiento del usuario. A través de una API (Application Programming Interface) de transferencia de estado representacional (REST – Representational State Transfer) se realizará la comunicación con el microservicio de notificaciones PUSH, el cual será el encargado de enviar las alertas, avisos o mensajes de recompensas al dispositivo del usuario. Por último, el manejo de la información se realizará empleando el servicio en la nube de Firebase. Con esta arquitectura se espera poder dar soporte a la gran cantidad de datos que puedan recopilarse a través del monitoreo utilizando sensores. 4.2 Definición de estrategias Para poder realizar las intervenciones de salud, se analizaron las distintas estrategias de persuasión (ver Tabla 1), de donde se seleccionaron las siguientes dado su contribución en el desarrollo de este proyecto: - El monitoreo del estado del paciente, que como parte de las tareas de apoyo primario se recomienda aparezca siempre dado que es una de las principales características con las que debe contar un sistema persuasivo. - El establecimiento de metas, ya sean puestas por el mismo sistema o por el usuario, dado que estudios muestran una mayor adherencia con las metas personalizadas pero establecidas por el sistema. - El acceso continúo a recordatorios, preferible a recordatorios en periodos de tiempo establecidos o múltiples recordatorios los cuales puedan abrumar al usuario con dichas notificaciones. - La ganancia de recompensas virtuales que permitan al usuario sentir que el realizar las acciones y cumplir las metas rinden frutos. - Halagos virtuales que se realicen al usuario según se cumplan las metas, motivando de esta forma al usuario a seguir mejorando los cuidados postoperatorios.
  • 66. 65 - La muestra de que la información que provee el sistema es de fuentes confiables es importante para la adherencia en el refuerzo o cambio de comportamiento o persuasión del usuario. Si el médico emite la recomendación de reposo o actividad se puede considerar como una meta a cumplir de una fuente confiable. 4.3 Prototipo de la interfaz Para el diseño de la interfaz de usuario, se siguió el principio de diseño centrado en el usuario, donde también se busca mejorar la experiencia del usuario, para generar una aplicación de fácil uso. En la Fig. 2 se muestra las distintas pantallas para el sistema. Fig. 2. Diseño del prototipo de interfaz La Fig. 2.a. muestra la información que será presentada al usuario de forma semanal o por día respecto a su actividad o reposo. En la Fig. 2.b. se muestra las felicitaciones que se darán al usuario por alcanzar su meta diaria. Por último, en la figura 2.c. se muestra el listado de notificaciones, donde inicialmente se dará un aviso con el estado actual para cumplir la meta diaria, adicionalmente, se mostrará el listado de todas las notificaciones recibidas para el usuario elija alguna acción (leer o borrar) sobre esta. 5 Resultados y Discusión Este es un trabajo en proceso, por lo que al término de esta propuesta se espera contar con una aplicación móvil que permita la recopilación de información o datos sobre las acciones o movimientos del paciente de acuerdo a los cuidados postoperatorios indicados en su expediente clínico. Esto facilitará el acceso a la información tanto para el paciente como para el médico, quien podrá acceder a información en tiempo real sobre si el paciente se mantuvo en reposo o en caso contrario en movimiento.
  • 67. 66 Monitorear el estado del paciente mediante el desplazamiento físico detectado por la aplicación; establecer metas sobre la actividad física o reposo que debe guardar el paciente; acceder de forma continua a los recordatorios sobre los cuidados postoperatorios indicados por el médico; recompensar al paciente en caso de que cumpla sus metas; felicitar o halagar al paciente si tiene un buen comportamiento y está cumpliendo con las indicaciones médicas; interactuar con fuentes confiables como lo es el expediente clínico personal del paciente para obtener información relevante a su salud, son las estrategias de persuasión definidas para ser empleadas en este trabajo. Con el establecimiento de metas bien definidas donde se contabilice el tiempo de reposo/descanso indicado vs el logrado, felicitaciones al paciente por cumplir con sus indicaciones, notificar al médico en caso de que las acciones del usuario sean adversas a las indicadas, se espera lograr un cambio de comportamiento en el paciente para que cumpla con sus cuidados postoperatorios. 6 Conclusiones y trabajo futuro De acuerdo a las actividades realizadas en este trabajo, se cuenta con el diseño de un prototipo mHealth centrado en el usuario para pacientes en cuidados postoperatorios. El uso de elementos como el sensor del acelerómetro con el que ya cuentan los teléfonos inteligentes y de tecnologías que permiten el desarrollo de prototipos móviles multiplataformas (React Native), así como la incorporación de una API Rest, microservicios de notificaciones PUSH y servicios en la nube agilizan el desarrollo de aplicaciones móviles. Además, las interfaces, flujos y experiencias de usuario presentan características persuasivas que motivan a los pacientes en cuidados postoperatorios a mantener un buen comportamiento en la atención de su salud después de una cirugía. Para lograrlo, se realizará el monitoreo del estado del paciente, el establecimiento de metas, el acceso continuo a recordatorios, la ganancia de recompensas y halagos virtuales según se cumplan las metas. De esta manera, se podrá mejorar la recuperación del paciente y disminuir el tiempo para que pueda retomar sus actividades diarias. Como trabajo futuro, se considera la incorporación de otro tipo de sensores ajenos al teléfono inteligente, así como la integración de las notas médicas provenientes del expediente electrónico del paciente donde el especialista de salud indique los cuidados que debe tener el paciente en relación al reposo o actividad física posteriores a su operación. Referencias [1] O. Oyebode, C. Ndulue, M. Alhasani, y R. Orji, «Persuasive Mobile Apps for Health and Wellness: A Comparative Systematic Review», abr. 2020, pp. 163-181. doi: 10.1007/978-3-030-45712-9_13. [2] R. Tarricone, F. Petracca, O. Ciani, y M. Cucciniello, «Distinguishing features in the assessment of mHealth apps», Expert Rev. Pharmacoecon. Outcomes Res., vol. 0, n.o 0, pp. 1-6, mar. 2021, doi: 10.1080/14737167.2021.1891883. [3] K. Sporrel, N. Nibbeling, S. Wang, D. Ettema, y M. Simons, «Unraveling Mobile Health Exercise Interventions for Adults: Scoping Review on the Implementations and Designs of Persuasive Strategies», JMIR MHealth UHealth, vol. 9, n.o 1, p. e16282, ene. 2021, doi: 10.2196/16282. [4] H. Oinas-Kukkonen y M. Harjumaa, «Persuasive Systems Design: Key Issues, Process Model, and System Features», Commun. Assoc. Inf. Syst., vol. 24, n.o 1, mar. 2009, doi: 10.17705/1CAIS.02428. [5] L. Alpay, R. Doms, y H. Bijwaard, «Embedding persuasive design for self-health management systems in Dutch healthcare informatics education: Application of a theory-based method», Health Informatics J., vol. 25, no. 4, pp. 1631-1646, dic. 2019, doi: 10.1177/1460458218796642. [6] R. A. Asbjørnsen et al., «Identifying Persuasive Design Principles and Behavior Change Techniques Supporting End User Values and Needs in eHealth Interventions for Long-Term Weight Loss Maintenance: Qualitative Study», J. Med. Internet Res., vol. 22, n.o 11, p. e22598, nov. 2020, doi: 10.2196/22598.
  • 68. 67 [7] S. P. Predeep Kumar y E. Babu Raj, «Reliable Smartphone Based Wireless Healthcare Monitoring System For Post Operative Heart Surgery Patients On Driving Conditions», Biomedical and Pharmacology Journal, vol. 8, no. 2, pp. 1093-1102, nov. 2015, doi: 10.13005/bpj/863. [8] N. Panda et al., «Using Smartphones to Capture Novel Recovery Metrics After Cancer Surgery», JAMA Surg., vol. 155, n.o 2, pp. 123-129, feb. 2020, doi: 10.1001/jamasurg.2019.4702. [9] H. Kehlet, «Multimodal approach to control postoperative pathophysiology and rehabilitation», Br. J. Anaesth., vol. 78, n.o 5, pp. 606-617, may 1997, doi: 10.1093/bja/78.5.606. [10] V. Rajanna et al., «KinoHaptics: An Automated, Wearable, Haptic Assisted, Physio-therapeutic System for Post- surgery Rehabilitation and Self-care», J. Med. Syst., vol. 40, n.o 3, p. 60, mar. 2016, doi: 10.1007/s10916-015-0391-3. [11] A. Abeles, R. M. Kwasnicki, C. Pettengell, J. Murphy, y A. Darzi, «The relationship between physical activity and post-operative length of hospital stay: A systematic review», Int. J. Surg., vol. 44, pp. 295-302, ago. 2017, doi: 10.1016/j.ijsu.2017.06.085. [12] Y. Falck-Ytter et al., «Prevention of VTE in Orthopedic Surgery Patients: Antithrombotic Therapy and Prevention of Thrombosis, 9th ed: American College of Chest Physicians Evidence-Based Clinical Practice Guidelines», CHEST, vol. 141, n.o 2, pp. e278S-e325S, feb. 2012, doi: 10.1378/chest.11-2404. [13] E. van der Meij et al., «Assessing pre- and postoperative activity levels with an accelerometer: a proof of concept study», BMC Surg., vol. 17, n.o 1, p. 56, may 2017, doi: 10.1186/s12893-017-0223-0. [14] S. Furtado, A. Godfrey, S. Del Din, L. Rochester, y C. Gerrand, «Are Accelerometer-based Functional Outcome Assessments Feasible and Valid After Treatment for Lower Extremity Sarcomas?», Clin. Orthop., vol. 478, n.o 3, pp. 482-503, mar. 2020, doi: 10.1097/CORR.0000000000000883. [15] H. M. Ghomrawi et al., «Using accelerometers to characterize recovery after surgery in children», J. Pediatr. Surg., vol. 53, n.o 8, pp. 1600-1605, ago. 2018, doi: 10.1016/j.jpedsurg.2017.09.016. [16] M. Preeti, Koushik Guha, K. L. Baishnab, K. Dusarlapudi, y K. Narasimha Raju, «Low frequency MEMS accelerometers in health monitoring – A review based on material and design aspects», Mater. Today Proc., vol. 18, pp. 2152-2157, ene. 2019, doi: 10.1016/j.matpr.2019.06.658. [17] S. M. Kelders, R. N. Kok, H. C. Ossebaard, y J. E. V. Gemert-Pijnen, «Persuasive System Design Does Matter: A Systematic Review of Adherence to Web-Based Interventions», J. Med. Internet Res., vol. 14, n.o 6, p. e2104, nov. 2012, doi: 10.2196/jmir.2104 [18] I. Nahum-Shani et al., «Just-in-Time Adaptive Interventions (JITAIs) in Mobile Health: Key Components and Design Principles for Ongoing Health Behavior Support», Ann. Behav. Med., vol. 52, n.o 6, pp. 446-462, may 2018, doi: 10.1007/s12160-016-9830-8. [19] P. Klasnja, D. E. Rosenberg, J. Zhou, J. Anau, A. Gupta, y D. E. Arterburn, «A quality-improvement optimization pilot of BariFit, a mobile health intervention to promote physical activity after bariatric surgery», Transl. Behav. Med., vol. 11, n.o 2, pp. 530-539, feb. 2021, doi: 10.1093/tbm/ibaa040. [20] B. Lo, L. Atallah, U. Aziz, M. ElHew, A. Darzi, y G.-Z. Yang, «Real-Time Pervasive Monitoring for Postoperative Care», ene. 2007, vol. 13, pp. 122-127. doi: 10.1007/978-3-540-70994-7_21.
  • 70. 69 Asistente GC: Asistente Colaborativo Móvil para la Gestión de Congresos o Ponencias Brigan Perez-Luna 1 , Luz A. Sánchez-Gálvez 1 , Mario Anzures-García, Mariano Larios-Gómez and Juventino Montiel 2 1 Facultad de Ciencias de la Computación, Benemérita Universidad Autónoma de Puebla. Ciudad Universitaria, 14 sur esquina Boulevard Valsequillo, 72570, Puebla-México. brigan.perez@buap.com.mx, sanchez.galvez@correo.buap.mx, mario.anzures@correo.buap.mx, mlarios77@gmail.com 2 Facultad de Ciencias Básicas, Ingeniería y Tecnología, Universidad Autónoma de Tlaxcala-México jmontiel2005@yahoo.com.mx Abstract. En las instituciones de educación superior se realizan con frecuencia ponencias, conferencias o congresos para permitir el intercambio de ideas y trabajo conjunto sobre una disciplina en particular. Sin embargo, la realization este tipo de eventos conlleva realizar, principalmente, tres procesos, que son bastantes complejos. Gestión de artículos, Logística del funcionamiento de dicho evento, y Realización del mismo. Para los dos primeros procesos ya existen diversas herramientas, tales como los sistemas de gestión de conferencia (easychar, openconf, etc.) y methodologies para manejar la logística de esta clase de eventos. Sin embargo, no existe una herramienta adecuada para el tercer proceso. Por tanto, en este artículo se plantea un asistente colaborativo móvil para la gestión de conferencias, que permita la comunicación, colaboración y coordinación de los diferentes participantes de una conferencia, de tal manera que está se lleve a cabo sin contratiempos y resolviendo los inconvenientes de la mejor manera posible. Keywords: Asistente, Gestión de Congresos, Aplicación Colaborativa, Aplicación Móvil, Participante. 1 Introducción En las instituciones de educación superior se realizan con frecuencia ponencias, conferencias o congresos para permitir el intercambio de ideas y trabajo conjunto sobre una disciplina en particular. Sin embargo, la realización de este tipo de eventos conlleva realizar, principalmente, tres procesos, bastantes complejos: La gestión de artículos, desde la emisión de la convocatoria del evento, el envío, revisión de éstos; así como la publicación de aceptados y el reenvío de los artículos modificados de acuerdo a las sugerencias de los revisores. La que regirá el funcionamiento de dicho evento. La realización del mismo, que requiere la organización y coordinación del personal técnico y de apoyo al momento de iniciar una conferencia o inclusive antes de comenzar, dado que todo el control de las conferencias se lleva a cabo en papel. Así como una buena comunicación, para reacomodar las ponencias, en caso de retrasos de los ponentes, inclusive, el poder cancelar ciertas conferencias por muchas razones técnicas y de coordinación, y si es necesario reagendarlas; atendiendo así con tiempo suficiente los problemas que se presenten, como los antes mencionados. Para los dos primeros procesos ya existen diversas herramientas, tales como los sistemas de gestión de conferencia (easychar, openconf, etc.) y metodologías para manejar la logística de esta clase de eventos. Sin embargo, no existe una herramienta adecuada para el tercer proceso. Por tanto, se plantea el desarrollo de un asistente colaborativo móvil para gestionar ponencias, que se ha nombrado Asistente GC, y que contrarrestara este tipo de inconvenientes y proporcionara una solución rápida y adecuada al coordinador, moderador, ponente y personal de apoyo de una conferencia. El documento se encuentra organizado de la siguiente manera: Sección 2 presenta el estado del arte que comprende las aplicaciones colaborativas y una descripción de aquellas utilizadas en el tercer proceso. Sección 3 describe el desarrollo del asistente colaborativo móvil para la gestión de congresos o ponencias. Sección 4 explica las conclusiones y el trabajo futuro.
  • 71. 70 2 Estado del Arte Un groupware o aplicación colaborativa soporta a un grupo} de personas alcanzar un objetivo común, mediante una interfaz de un entorno compartido [1, 2, 3, 4]. De tal manera, que el trabajo en grupo se realiza en un espacio de trabajo compartido (entorno) donde un conjunto de individuos, geográficamente distribuidos que comparten un interés común, se organizan, comunican, colaboran y coordinan para realizar tareas y alcanzar un objetivo común [4, 5]. En estos tiempos de emergencia sanitaria, las aplicaciones colaborativas se volvieron indispensables en empresas, organizaciones e instituciones de cualquier ámbito, obviamente, se encuentra incluido, el educativo; ya que al estar cada uno en su casa resulta más sencillo, utilizar y/o implementar una aplicación colaborativa. Existen diversas aplicaciones colaborativas, como: Google Drive [6] ofrece el servicio de almacenamiento de archivos y sincronización de estos con otros dispositivos; WhatsApp [7] sistema de mensajería instantánea, que permite mantener conversaciones en tiempo real y también ofrece videollamada, estado, lista de difusión y compartir archivos; Dropbox [8] servicio multiplataforma de alojamiento de archivos en la nube, para almacenar, compartir y sincronizar tanto archivos como carpetas en línea entre computadoras, tabletas y móviles; Facebook [9] red social, que, dentro de sus distintas funcionalidades, ofrece la posibilidad de hacer publicaciones, compartir archivos, enviar mensajes, crear grupos; Microsoft Kaizala [10] aplicación de software de gestión de trabajo y mensajería que permite colaborar con otros, con la capacidad de enviar y recibir mensajes instantáneos, coordinar tareas y usar herramientas especiales para interactuar con su equipo; Microsoft Teams [11] software cuyo principal objetivo es la colaboración en equipo, siendo su primordial función la mensajería para comunicarse y colaborar con miembros de la propia organización y fuera de ella; Trello [12] plataforma para el desarrollo de proyectos que simplifica la colaboración y sirve para lo que uno quiera desarrollar, organizar o coordinar; Skype [13] software multiplataforma que permite comunicaciones de texto, voz y video sobre internet; y ZOOM [14] ofrece videoconferencias en tiempo real, que permite servicio de salas de videoconferencias para realizar diversas tareas de forma colaborativa: edición de documentos y pizarra de anotaciones. Se pueden utilizar dos o tres de las aplicaciones colaborativas para llevar a cabo el proceso de realización de la conferencia o ponencia, sin embargo, esto complica la gestión de dicho proceso. Por tanto, en este artículo se propone un asistente colaborativo móvil para realizar congresos o ponencias, denominado Asistente GC. 3 Desarrollo El asistente GC se desarrolla mediante un modelo evolutivo iterativo, que permite adaptarse a cambios en los requisitos y/o añadir nuevos en cada iteración que se vaya realizando. En cada una se lleva a cabo análisis de requisitos, diseño, codificación y pruebas. Partiendo de este modelo, para la aplicación Asistente GC se definen cuatro tipos de usuario con diferentes funciones específicas para que puedan cumplir con sus tareas encomendadas en dicho asistente:  Coordinador. Es el que maneja la aplicación teniendo acceso a todas las funcionalidades.  Moderador. Es quien coordina las sesiones y el personal de apoyo que le hayan asignado.  Ponente. Es quien dará las conferencias a los asistentes.  Personal de apoyo. Es el personal que apoyará en logística y en necesidades técnicas al resto de usuarios. En la Fig. 1 se presenta el diagrama de entidad relación con las principales tablas: Usuario, Ponente, Moderador, Personal de Apoyo, Sesión, Ponencia y Lugar. A partir de este diagrama se genera la base de datos (véase la Fig. 2) en Firebase, que ayuda a desarrollar apps de alta calidad con rapidez,
  • 72. 71 además proporciona el servicio Cloud Firestore, que permite trabajar de manera remota con la interfaz de usuario, de tal manera que se pueden hacer cambios en la nube y disponer de los datos correspondientes Partiendo de lo anterior, se implementó el Asistente GC; creando el logo e icono de la aplicación móvil, para proseguir con la pantalla de carga (splashscreen), que durará 10segundos, terminando dicho tiempo la aplicación pasará a la Fig. 3, inicio de sesión. En la cual el usuario puede registrarse, sino lo ha hecho, o entrar al asistente escribiendo su correo electrónico y contraseña. Todos los formularios del asistente son validados para asegurar la robustez del mismo, de tal manera que, ante cualquier entrada de información inesperada, la aplicación responda correctamente y no interrumpa su funcionamiento. Fig. 1. Modelo relacional del Asistente GC. Fig. 2. Base de datos del Asistente GC en Firebase. Cuando iniciamos sesión se accede al inicio del Asistente GC, donde se presentan las distintas tareas que se pueden realizar (véase la Fig. 3), entrando como administrador. Cabe destacar que los botones que serán visibles en la pantalla de inicio dependen del tipo de usuario, ya que cada uno ejecuta diferentes actividades de acuerdo a los permisos que tenga asignados. En el caso del administrador se tienen las siguientes:
  • 73. 72 Fig. 3. Inicio de sesión y pantalla de inicio del Asistente GC.  Lista de Ponentes. Presenta todos los ponentes que participan en el congreso que se está realizando (véase la Fig. 4), a través de tarjetas que sirven para mostrar los datos almacenamos en la nube. Además, se explica de manera breve en que consiste la ponencia que expondrán.  Conferencias. Lista las ponencias que se llevarán a cabo ese día, indicando nombre de la misma, de los autores y de la institución de donde proceden los autores. (véase la Fig. 5). Cabe mencionar que se han utilizado tablas dinámicas, por ende, el tamaño puede variar dependiendo de la cantidad de información que contenga cada una.  Administrar Ponencias. Gestiona las ponencias permitiendo agregar, modificar, consultar y eliminarlas, así como re-agendar las mismas según sean las necesidades del congreso.  Sesiones. En los congresos o ponencias las exposiciones se agrupan por temas dando lugar a las denominadas sesiones, a las cuales se les asigna un lugar y horario de exposición.  Moderadores. Personas responsables de presentar a los ponentes, indicarles el tiempo que tienen para su presentación, moderar la ronda de preguntas y apoyar en tu lo que necesite el ponente, esto con el respaldo del personal de apoyo.  Mensajes. Espacio que permite la comunicación directa entre dos personas o un grupo, que esté involucrado en algún incidente o problemática que se haya presentado en el desarrollo de la conferencia. De tal manera, que se resuelva lo más pronto posible y el evento pueda continuar su desarrollo normal, disminuyendo los contratiempos que puedan presentarse.
  • 74. 73  Personal de Apoyo. Personas que proporcionan asistencia a los ponentes, moderadores y coordinador, para que todo lo que éstos necesiten lo tengan a la mano y funcionado adecuadamente, o en su defecto ayudar a solucionar algún problema que se presente, ya sea resolviendo el problema, llamando a un experto o trayendo y cambiando el recurso que esté fallando. Además de apoyar y asistir en todo momento a los ponentes, ya que muchos de ellos no son del lugar en donde se realiza dicho evento. Fig. 4. Lista de Ponentes del Asistente GC. Fig. 4. Conferencias del Asistente GC.
  • 75. 74 5 Conclusiones and Trabajo Futuro En este artículo, un modelo evolutivo iterativo se siguió para desarrollar el Asistente Colaborativo Móvil para la Gestión de Congresos o Ponencias, que contempló cuatro usuarios Coordinador, Moderador, Ponente y Personal de Apoyo. Los cuales son quienes participan en la realización de la ponencia o congreso, permitiéndoles comunicarse, colaborar y coordinarse para que este evento se ejecuta de la mejor manera. El diseño de las interfaces fue minimalista, pero consiguiendo proporcionar usabilidad e intuición en la interacción con éstas y entre los mismos usuarios. El uso del modelo permitió ir mejorando el asistente en cada iteración. Además. Los servicios y el propio Firebase facilitó la interacción de las interfaces de usuario con la información, así como la modificación y actualización en tiempo real. El trabajo futuro de este trabajo sería portar la aplicación a una plataforma de desarrollo hibrido, que proporcione la creación del Asistente GC en Android e iOS para que sea usado en cualquier dispositivo móvil. References [1] M. Anzures-García and L.A. Sánchez-Gálvez. Proposing an ontological model for developing collaborative systems. Journal Intelligent & Fuzzy Systems 39-2, pp. 2545–2557, 2020. [2] M. Anzures-García, L.A. Sánchez-Gálvez, Hornos, M., & Paderewski, P., Tutorial function groupware based on a workflow ontology and a directed acyclic graph. IEEE Latin American Transactions 16-1, pp. 294-300, 2018. [3] J. Grudin, Computer-Supported Cooperative Work: its history and participation. IEEE Computer, 27-5, pp. 19-26, 1994. [4] J. Grudin, and S.E. Poltrock, Computer-Supported Cooperative Work and groupware. In: Advances in Computers, 45, pp. 269–320, 1997. [5] M. Anzures-García, L.A. Sánchez-Gálvez and A. Campos-Gregorio. Weighted Bidirectional Graph-based Academic Curricula Model to support the Tutorial Competence Journal Computer and System, 24-2, pp. 619–631, 2020, [6] GoogleDrive. https://www.google.com/intl/es/drive/. Accedido el 7 de junio de 2021. [7] WhatsApp. https://www.whatsapp.com/. Accedido el 8 de junio de 2021. [8] Dropbox. https://www.dropbox.com/. Accedido el 6 de junio de 2021. [9] Facebook. https://www.facebook.com/. Accedido el 6 de junio de 2021. [10] Microsoft Kaizala https://www.microsoft.com/es-mx/microsoft-365/business/microsoft-kaizala. Accedido el 8 de junio de 2021. [11] Microsoft TEAMS. https://www.microsoft.com/es-mx/microsoft-teams/group-chat-software. Accedido el 9 de junio de 2021. [12] Trello. https://trello.com/. Accedido el 5 de junio de 2021. [13] Skype. https://www.skype.com/ Accedido el 15 de junio de 2021. [14] Zoom. https://zoom.us/
  • 77. 76 Caso de estudio de la preferencia de modelo educativo y uso de TIC para evaluar la implementación de un modelo de aula invertida Área de conocimiento: Educación en TI Erica María Lara Muñoz 1 , Rogelio Reyna Vargas 1 , Hugo de Jesús Lara Muñoz 1 , Félix Efraín Corro Islas 1 , Cristhian Villegas García 1 1 Tecnológico Nacional de México - Instituto Tecnológico Superior de Alvarado, Escolleras Norte S/N, Colonia La Trocha, Alvarado, Veracruz, C.P. 95250. México erica.lm@alvarado.tecnm.mx Resumen. En este artículo se muestran los resultados obtenidos de una investigación que evalúa la posibilidad de diseñar e implementar un modelo de aula invertida en estudiantes de educación superior. El estudio se llevó a cabo en el Instituto Tecnológico Superior de Alvarado con 74 sujetos de estudio, de diversas unidades académicas. Se realizaron dos test para la recolección de datos, los cuales fueron validados con el coeficiente de Alfa de Cronbach. Los resultados del estudio mostraron que sí es pertinente la implementación del modelo, debido a que los estudiantes tienen acceso a diversas tecnologías, así como un buen dominio sobre las mismas, cuentan con servicio de Internet, prefieren revisar actividades en casa para que estas sean elaboradas en el aula de clases, les gusta interactuar con sus compañeros y les interesa que el docente sea su guía y orientador, características que presenta este modelo de aula invertida. Palabras clave: Aula invertida, TIC, Herramientas tecnológicas, Tecnologías de la información y comunicación. 1 Introducción Las tecnologías de la información y la comunicación (TIC), son herramientas que han sido capaces de evolucionar diversos sectores, se han hecho presentes en cualquier ámbito en la vida de un ser humano, dentro del área social, personal, laboral, escolar y familiar, además, ahora se han vuelto indispensables para la educación de los estudiantes. De manera general, las TIC permiten acceder, producir, presentar, guardar y, sobre todo, transmitir información. Uno de los mayores beneficios que ofrece el uso de las TIC en la educación, es facilitar el proceso de enseñanza y aprendizaje debido a que, se puede tener acceso a diversa información y recursos de manera práctica y muy fácil, además de que, se fortalece el trabajo colaborativo y genera competencias en aspectos técnicos, formativos y metodológicos [1], además de favorecer a la educación a distancia y mixta [2]. Por otro lado, así como las tecnologías vinieron a evolucionar nuestro actual actuar, las modalidades y modelos educativos, también han venido presentando un cambio, anteriormente, el estudiante era puramente el receptor de información, y ahora, se convierte en responsable de la generación de su propio conocimiento. Desafortunadamente, estas modificaciones se han venido dando, sin consultar previamente la opinión de los estudiantes y la experiencia que han tenido, y sin conocer realmente si el modelo educativo representa o no, algún beneficio. Por lo que en el presente artículo se describe un estudio realizado con relación a la preferencia del modelo educativo de estudiantes de educación superior, así como de las TIC que estos más utilizan para realizar sus actividades académicas, con la finalidad de conocer la pertinencia de implementación de cursos académicos, haciendo uso de un modelo de aula invertida, en el cual los estudiantes dispondrán de recursos que deberá analizar y estudiar en un tiempo fuera de su horario de clases [3].
  • 78. 77 2 Estado del arte El aula invertida se ha definido como un modelo, método de enseñanza o estrategia, en donde los contenidos de un determinado curso se aprenden ahora fuera del aula y el docente puede profundizar e implementar actividades de aprendizaje en clase durante un determinado curso [4]. El modelo, también es conocido como Flipped Classroom, y la finalidad es que las actividades o tareas que el estudiante hace regularmente en su casa, ahora las realice en el salón de clases, y las que hace en el aula de clases, ahora sean llevadas a cabo en su casa -previa a sus clases-, es decir, en casa tendrá que revisar contenidos (vídeos, audios, materiales diversos) y en clases, realizar actividades para tener una participación más activa. En este modelo de aula invertida, es necesario que, para realizar las clases, se haga uso de herramientas que permitan facilitar el intercambio de la información e interacción, entre el docente y el estudiante tanto dentro como fuera del aula, así como tecnología multimedia para los contenidos estudiados antes de las clases [5]. Con el modelo del aula invertida el estudiante realiza un aprendizaje más profundo de manera individual fuera del aula, ya que requiere revisar los contenidos que son sugeridos e indicados por el docente, esto lo puede hacer las veces que sea necesario y sin la presión de tener que hacerlo en un tiempo determinado, ya que él es quien pone su propio ritmo. Por otra parte, el docente se vuelve solamente un coach dentro del proceso de aprendizaje, ya que dedica más el tiempo a resolver las dudas que son expresadas por el estudiante. Este modelo favorece el desarrollo de competencias del estudiante y permite reforzar tanto el trabajo individual como el colaborativo, debido a que los compañeros de grupo pueden interactuar a través de diversas herramientas diseñadas para tal propósito. Existen investigaciones [6] [7] que han demostrado que el modelo de aula invertida ha sido benéfico y eficiente para el aprendizaje de los estudiantes, además de que incide de manera positiva en ellos, generando un pensamiento crítico, habilidades de comunicación y colaboración, así como una preferencia en este tipo de clases con el modelo invertido. Por otra parte, las TIC en este modelo son gran impulsoras que favorecen el desarrollo de diversas habilidades como la comunicación, motivación, colaboración, creatividad, entre otras, además permiten que el estudiante tenga una educación más dinámica, interactiva y, sobre todo, les facilitan el acceso a diversos tipos de contenidos previamente seleccionados por el docente. En este sentido, las tecnologías son un excelente aliado en este modelo, sin embargo, no hay que olvidar que, antes de implementar el modelo, se debe de seleccionar la tecnología más adecuada para ello, de tal manera que sea fácil de utilizar y monitorear. Los contenidos a desarrollar deberán ser creados para que los estudiantes tengan acceso a ellos en todo momento que lo requieran y hay que tener siempre presente, el monitoreo del avance de los estudiantes con relación a los contenidos temáticos y las actividades solicitadas. 3 Metodología El estudio se llevó a cabo en el Tecnológico Nacional de México - Instituto Tecnológico Superior de Alvarado, considerando las unidades académicas de Lerdo de Tejada, Alvarado, Tlalixcoyan y Medellín de Bravo, todas pertenecientes al Estado de Veracruz. Los sujetos de estudio fueron 74 alumnos de las cuatro unidades académicas de las carreras de Ingeniería en sistemas computacionales e Ingeniería en Gestión Empresarial, estos sujetos por lo menos habían utilizado durante un semestre anterior al estudio, diversas herramientas tecnológicas durante sus cursos en línea. Se elaboraron en Google Forms, dos instrumentos para la recolección de los datos, los cuales fueron validados con el coeficiente de Alfa de Cronbach con el software SPSS v.23. Un primer instrumento se elaboró con la finalidad de conocer la preferencia de los estudiantes sobre las modalidades educativas y un segundo, para saber cuáles son las TIC que estos utilizan para la realización de sus actividades académicas.
  • 79. 78 La validación del primer instrumento mostró un resultado en el coeficiente de 0.800 y del segundo instrumento se obtuvo un 0.923, comprobando de esta manera la validez y confiabilidad de ambos instrumentos. El instrumento sobre la preferencia de la modalidad educativa estuvo formulado con 21 preguntas de tipo Likert, la escala definida fue 1: Nunca, 2: A veces, 3: Casi siempre, 4: Siempre. Para el instrumento del uso de la tecnología se realizaron preguntas generales para conocer el tipo de tecnología que tienen y utilizan más y 16 preguntas tipo Likert para saber el nivel de dominio de la tecnología que utilizan los estudiantes con mayor frecuencia, la escala definida fue 1. Insuficiente, 2. Regular, 3. Bueno, 4. Muy bueno, 5. Excelente. Ver anexos. Una vez que los test fueron contestados, se obtuvo la base de datos de las respuestas para procesar los resultados que se mencionan en el siguiente apartado. 4 Resultados experimentales Dentro de los resultados más relevantes que indican que el estudiante prefiere el modelo del aula invertida, se ha encontrado que ellos prefieren revisar actividades en sus casas (ver figura 1) y realizar estas en el salón de clases (ver figura 2), de manera que el docente sea el orientador y guía de dichas actividades, para este caso, el 60% prefiere que siempre el profesor funja de esta manera, el 25% casi siempre, el 13% a veces y sólo el 1% nunca. Además, los estudiantes en un 25% siempre prefieren obtener retroalimentación oportuna por parte del docente, el 47% casi siempre el 24% a veces y sólo el 4% nunca quiere tener esta retroalimentación. La figura 1 muestra que la mayoría de los estudiantes, en un 60% (considerando a “Siempre” y “Casi siempre” como valores positivos y a “A veces” y “Nunca” como valores negativos) prefieren revisar las actividades en sus casas, actividades como audios, videos, lecturas, entre otros. Por lo que el 24% prefiere siempre hacerlo, el 37% casi siempre, el 31% a veces y el 9% restante, nunca prefiere hacerlo. Fig. 1. Preferencia de los estudiantes para revisar actividades en casa. En cuanto a la realización de las actividades en el aula, después de haber revisado material en casa, el 18% de los estudiantes prefiere siempre hacerlas dentro del aula, el 43% casi siempre, el 31% a veces y el 9% nunca, esto lo puede observar en la figura 2. Por otra parte, cabe hacer mención que el 66% de los estudiantes contestó positivamente que prefiere que el profesor prepare talleres prácticos para que de esta manera puedan aplicar el conocimiento adquirido en casa dentro del aula de clases y así tener la retroalimentación oportuna mencionada anteriormente.
  • 80. 79 Fig. 2. Preferencia de los estudiantes por realizar actividades en el aula. En la figura 3, podrá observar que a los estudiantes les agrada trabajar de manera colaborativa, en su mayoría, prefieren compartir opiniones con sus compañeros. Un 10% siempre prefiere hacerlo, el 47% casi siempre, un 26% a veces y el 16% nunca prefiere hacerlo. Sin embargo, dentro de estas actividades colaborativas que tengan que realizar, un 44% siempre prefiere que exista la asignación de tareas para que cada quién asuma responsabilidades, el 35% casi siempre lo prefiere, el 19% a veces y el 1% nunca quiere tener asignada una tarea. Fig. 3. Estudiantes que prefieren compartir opiniones con compañeros. Con relación a los aspectos digitales, los estudiantes gustan por hacer uso de diversas tecnologías ya sea de hardware como tabletas, smartphone, escáner, impresoras, cámaras, entre otras, o de software (ver figura 4), además, estos no tienen problemas con la conexión a internet desde sus casas, inclusive, en su mayoría cuenta hasta con buena conectividad y con más de un dispositivo móvil o portátil para el desarrollo y buen desempeño en sus actividades académicas. En la figura 4, se puede observar que el 88% de los estudiantes utilizan programas de cómputo como lo son los procesadores de texto, las hojas de cálculo, las presentaciones electrónicas, software de edición de vídeos y software de diseño gráfico. Además, también se muestra que el 99% de los sujetos de estudio se comunica en la red a través de correo electrónico, mensajería instantánea y redes sociales. El 84% se conecta a plataformas como navegadores de internet, plataformas educativas, para alojar documentos en la nube, creación de formularios, alojamiento de videos y a base de datos bibliográficas. El 96% utiliza la paquetería ofimática para elaborar sus actividades académicas que deban ser documentadas. Cabe mencionar que en la figura 4, se combina el resultado de varias preguntas del test del uso de TIC.
  • 81. 80 Fig. 4. Uso de diversas tecnologías. Como puede observar en la figura 5, el nivel de dominio que predomina es el bueno y el regular, con un 31% y 25% respectivamente, seguido por muy bueno con 21%, excelente 14% y por último insuficiente con un 9%. Por lo que los estudiantes además de hacer uso de las diversas tecnologías tienen un nivel de dominio que les permite realizar sin ninguna dificultad, sus actividades académicas ya sea fuera o dentro del aula. Otros hallazgos que se obtuvieron con diversas preguntas del test del uso de TIC, fueron el nombre de más de cincuenta, entre herramientas, plataformas y tecnologías, de las que hacen uso los estudiantes con mayor frecuencia, dentro de estás destacan la mensajería instantánea, haciendo uso el 96% del WhatsApp, el 91% utiliza Gmail como correo electrónico, el 97% utiliza MS Word y MS Power Point, el 95% hace uso de Excel, el 81% utiliza YouTube, el 82% Google Drive y Google Chrome, el 100% Google Classroom, entre otras. Fig. 5. Dominio de los estudiantes en el uso de herramientas.
  • 82. 81 5 Conclusiones y trabajos futuros La investigación realizada, dio a conocer que por las preferencias que muestran los estudiantes de interactuar con sus compañeros, revisar materiales en casa, hacer actividades en el aula, realizar evaluaciones digitales, guardar documentos en la nube y que el docente sea guía y facilitador, indica que el modelo de aula invertida es el preferido, ya que estas son algunas de las características que se destacan en este modelo invertido. Sin embargo, existen actividades como escribir un resumen o hacer una exposición, que prefieren hacerlo de manera tradicional y no utilizar el diseño de un blog o realizar y subir un video a YouTube. Otro aspecto importante para considerar es que los estudiantes no tienen problemas ni con el uso de la tecnología, ni con el acceso a las mismas, inclusive el 100% de los sujetos de estudio cuentan con una computadora ya sea de escritorio o portátil, de los cuales, el 93% tienen acceso a Internet desde esa computadora personal, el 3% tiene acceso a Internet desde algún dispositivo móvil, y sólo el 4% no tiene acceso a la red. Se observa que la característica que presentan estos estudiantes es ser más activos, tecnológicos y colaborativos, debido a ello, gustan por actividades que involucren diversos software, y la tecnología, que les permitan realizar la mayoría de sus actividades académicas. Por lo que se puede concluir que, los resultados del estudio muestran la pertinencia de implementar el modelo de aula invertida en las asignaturas de los estudiantes, para ello, como trabajo futuro se tendrán que analizar las herramientas a utilizar, y diseñar las actividades pertinentes, con la finalidad de cumplir con las características que solicita el modelo y con las necesidades y estilos de aprendizaje del propio estudiante, así, de esta manera, el estudiante pueda enriquecer su aprendizaje y adquirir mayor conocimiento. Referencias [1] C. Sandoval. La Educación en Tiempo del Covid-19 Herramientas TIC: El Nuevo Rol Docente en el Fortalecimiento del Proceso Enseñanza Aprendizaje de las Prácticas Educativa Innovadoras. Revista Tecnológica-Educativa Docentes 2.0, Vol. 9, No. 2, pp. 24-31. doi: 10.37843/rted.v9i2.138. 2020. [2] L. Covarrubias. Educación a distancia: transformación de los aprendizajes. Telos: revista de Estudios Interdisciplinarios en Ciencias Sociales, Vol. 23, No. 1, pp. 150-160. doi: 10.36390/telos231.12. 2021. [3] G. Kraus, M. Formichella, y M. Alderete. El uso del Google Classroom como complemento de la capacitación presencial a docentes de nivel primario. Revista Iberoamericana de Tecnología en Educación y Educación en Tecnología. No. 24, 79-90. doi: 10.24215/18509959.24.e09. 2019. [4] E.M. Lara, M. Villarruel, R. Chávez y R. Reyna. Tendencias educativas en la educación superior tecnológica. España: Diaz de Santos. 2021. [5] V.C. Sandobal, M. B. Marín, y T. H. Barrios. El aula invertida como estrategia didáctica para la generación de competencias: una revisión sistemática. RIED. Revista Iberoamericana de Educación a Distancia, Vol. 24, No. 2, pp. 285-308. doi: 10.5944/ried.24.2.29027. 2021. [6] M. O. González y P. Huerta. Experiencia del aula invertida para promover estudiantes prosumidores del nivel superior. RIED. Revista Iberoamericana de Educación a Distancia. Vol. 22, No. 2, pp. 245-259. doi: 10.5944/ried.22.2.23065. 2019. [7] G. Arráez, A. Lorenzo, M. Gómez y G. Lorenzo. La clase invertida en la educación superior: percepciones del alumnado. International Journal of Developmental and Educational Psychology. Vol. 2, No. 1, pp. 155-162. 2018.
  • 83. 82 Anexo 1. Test preferencia del modelo educativo
  • 84. 83 Anexo 2. Test uso de TIC
  • 85. 84
  • 86. 85 La estrategia de la formación continua en apoyo a las competencias de la profesión Juan José López Cisneros1 , María Eugenia Pérez Cortés2 y Noé Gilberto Menchaca de Alba3 1 Universidad de Guadalajara – Centro Universitario de Ciencias Exactas e Ingenierías, Blvd. Marcelino García Barragán 1421, Olímpica, Guadalajara, Jalisco, 44430. México 1 juan.lopez@académicos.udg.mx 2 Universidad de Guadalajara – Centro Universitario de Arte, Arquitectura y Diseño, Calzada Independencia Norte No. 5075, Huentitán El Bajo S.H., Guadalajara, Jalisco., 44250. México 2ma.eugenia.perez@academicos.udg.mx, 3noe.menchaca@academicos.udg.mx Resumen. Los cursos de formación continua son una estrategia en la educación superior para cumplir con el propósito de la extensión universitaria. El objetivo de este documento es compartir una experiencia de trabajo en un curso de este tipo con un grupo de estudio heterogéneo en sus profesiones donde tienen la intención de incorporar la programación en Python a sus actividades profesionales. Se desarrolló un modelo de trabajo el cual priorizaba la identificación de conocimientos previos y la adquisición de los conocimientos de acuerdo a sus posibilidades académicas. En conclusión, los participantes valoraron la metodología de trabajo, los recursos tecnológicos utilizados y se generaron redes de conocimiento entre la diversidad de participantes. Palabras claves: Formación continua, Pensamiento computacional, Programación, Planeación educativa. 1 Introducción Los estudios de formación continua son un área de oportunidad en las universidades que se realizan como actividad para apoyar la ampliación, especialización y actualización de los conocimientos. Como lo refiere Redondo [1] al mencionar las cuatro funciones de la universidad al servicio de la sociedad, las cuales son la investigación, la docencia, el apoyo técnico-científico al desarrollo cultural, social y económico, y, por último, la extensión de la cultura universitaria. El Plan de Desarrollo Institucional 2019 – 2025 [2] de la Universidad de Guadalajara establece sus propósitos sustantivos los cuales se describen como la docencia y la innovación académica; la investigación y transferencia tecnológica y del conocimiento; la extensión y responsabilidad social y, por último, la difusión de la cultura. Por lo que las actividades de formación continua constituyen un eje de trabajo en la relación entre la universidad, el entorno y su trabajo de extensión. Las preguntas en relación a este tipo de actividades son: ¿quiénes son los participantes beneficiados de estos estudios? ¿Qué propósitos logran cumplir este tipo de actividades? ¿Cómo deben diseñarse y ejecutarse estas propuestas? ¿Qué oportunidades se tienen a partir de las restricciones por la pandemia? Los beneficios de este tipo de actividades parecen alentadores para cumplir algunas de las funciones sustantivas de la universidad, pero hay ciertas implicaciones que limitan su realización, siendo este trabajo una experiencia con un grupo de trabajo entre participantes de distintas profesiones y grados de formación. ¿Cuál es la propuesta educativa entre los participantes de distintos momentos educativos? ¿Cuáles fueron los aprendizajes obtenidos?
  • 87. 86 2 Estado del arte La formación continua establece una relación directa entre la universidad y la sociedad, como lo mencionan Arregui y Arreguit [3] es la íntima conexión que existen entre los diversos ecosistemas, las organizaciones, los individuos en donde los responsables públicos y privados están teniendo que desarrollar estrategias locales para ajustar los cambios emergentes entre todas las variables concurrentes. Su finalidad afirma Tejada y Ferrández [4] está en el desarrollo de competencias profesionales que mejoran la ejecución de la profesión e incrementa el potencial de la organización a la que se pertenece. Por lo que, se puede pensar que esta práctica sea enfocada a participantes que ya no forman parte de un programa académico de pregrado o posgrado. De forma natural, los cursos de formación continua a través de las instituciones educativas tradicionales son organizados para grupos homogéneos y con una modalidad educativa presencial para lo cual una planeación educativa caracteriza la situación, establece estrategias didácticas y ejecuta el plan diseñado. Aunque ya venían realizándose algunas actividades de este tipo por entidades emergentes a través de plataformas virtuales de contenido educativo y de estrategias más visuales como los MOOCS, por causa de los efectos provocados por la pandemia, en la universidad tradicional se ha acelerado la conversión de estos cursos presenciales a virtuales, y que por ejemplo en Gárate y Cordero [5] se menciona que la formación en línea de participante como el profesorado puede traer en su profesión múltiples beneficios que incidan en su práctica educativa. 3 Problemática a resolver Se ha mencionado previamente que la estrategia de cursos de formación continua en la institución se desarrolla tradicionalmente con grupos de profesión homogéneos. Otra situación es que estos cursos están diseñados tradicionalmente para realizarse de manera presencial y distantes de la incorporación de las herramientas tecnológicas. Si la propuesta de una institución académica es realizar una extensión universitaria a través de la formación continua, donde los profesionistas tengan la oportunidad de mejorar la ejecución de su profesión y que también la institución asimile cuáles son las necesidades de los participantes, de su contexto y de la integración de quienes actualmente constituyen su comunidad universitaria, entonces las visiones tradicionales tienen que cambiar. Es por ello que en este proyecto se decide establecer algunos cambios de donde se destaca en primer lugar la formación de un grupo heterogéneo Se ha propuesto la realización de un curso de formación continua con el título de ‘Introducción a la programación en Python’ con la característica de conformar un grupo heterogéneo, interesado en incorporar el uso de la programación en sus actividades profesionales y que el curso sea realizado a través de modalidades no convencionales, provocado tal vez, por la situación de la pandemia. 3.1 Características del grupo de estudio La integración del grupo fue a través de una convocatoria para registrase en el curso en una modalidad no convencional en el cual se informaba que se tenía como finalidad la integración del pensamiento computacional y la programación en sus actividades profesionales.
  • 88. 87 Finalmente, los participantes al grupo de estudio (ver Fig. 1) se conformó por 6 profesionistas, 14 académicos (as), 5 estudiantes de posgrado y 15 estudiantes de pregrado. Fig. 1. Participantes en un curso de formación continua La intención del estudio era que fuera un grupo heterogéneo y que además tuviese una representatividad en sus profesiones, las cuales fueron: Ingeniería Química, Licenciatura en Física, Doctorado en Ciencias en la especialidad en Física, Licenciatura en Ingeniería Mecánica Eléctrica, Doctorado en Ciencias con Especialidad en Ingeniaría Eléctrica, Ingeniería en Sistemas Computacionales, Maestría en Ciencias de la Computación, Doctorado en Ingeniería Química, Licenciatura en Matemáticas, Licenciatura en Oceanología, Doctorado en Ciencias de la Tierra, Ingeniería en Sistemas, Licenciatura en Administración, Ingeniería en Computación, Licenciatura en Informática, Ingeniería en Comunicaciones y Electrónica, Ingeniería en Alimentos y Biotecnología, Ingeniería en Sistemas Biológicos, Ingeniería Biomédica, Ingeniería de Software, Doctorado en Tecnologías de Información y, Maestría en Ciencias en Bioingeniería y Cómputo Inteligente. 3.2 El diseño instruccional La diversidad presente en este grupo de estudio invita a no seguir la normalidad de los cursos que se establecen en las instituciones educativas, por ejemplo, es común que en un grupo escolar que tienen alumnos inscritos de un par de carreras distintas reciban la unidad de aprendizaje y se tengan las mismas competencias y actividades para todos los que integran el grupo. Pero como lo menciona Belloch [6] en su trabajo al describir lo que un profesional se plantea al realizar un diseño instruccional, que este tiene que seguir un proceso con el fin de diseñar y desarrollar acciones formativas de calidad. Por ello el trabajo de diseño instruccional realizado para este curso de formación continua tenía como prioridad el generar un espacio intelectual donde todos los participantes pudiesen realizar distintas actividades, expresar sus dudas, problemas y por consiguiente compartir desde su experiencia muy particular el avance que se ha tenido durante las sesiones. La consideración a la ejecución del diseño instruccional (ver Fig. 2) propone tener un espacio de trabajo a través de una plataforma virtual sincrónica como lo es ‘Zoom’, el desarrollo de actividades a través de una plataforma asincrónica como lo es ‘Moodle’ y la utilización de un intérprete del lenguaje ‘Python’ en su computadora local.
  • 89. 88 Fig. 2. Consideraciones al diseño instruccional El diseño instruccional también considera que los elementos teóricos – prácticos desarrollados durante las sesiones de aprendizaje fuesen significativos, según su profesión, el entorno y su experiencia con el pensamiento computacional. Cada actividad diseñada debía consolidar una competencia para el fortalecimiento de su labor profesional. 3.3 La evaluación de los aprendizajes La finalización del estudio invita a realizar la evaluación de los aprendizajes obtenidos en relación a lo que hace en su ámbito de la profesión. Para Salazar [7] el gran desafío que presenta la evaluación en relación a recoger evidencias es la necesidad de garantizar la coherencia. Si la finalidad para los que toman este curso es mejorar en la ejecución de su práctica profesional, entonces es pertinente que se cierre el ciclo con la presentación de un proyecto final acorde a lo realizado durante las sesiones y que sea directamente aplicado a alguna de las actividades de su profesión. Los exámenes quedan fuera de una pertinencia como método de evaluación de aprendizajes, por lo que se privilegia el aprendizaje basado en el proyecto, el cual deberán presentarlo hacia sus compañeros. 4 Experiencia realizada Esta sección describe la experiencia realizada para ejecutar las actividades programadas durante la duración del curso de formación continua. 1. El interés institucional. Este tipo de acciones al interior de una organización o institución requiere que haya interés por parte de la alta dirección institucional al cumplir con las estrategias planteadas en su Plan de Desarrollo Institucional, que en este caso es la extensión universitaria en la sociedad. 2. La pertinencia del diseño instruccional. La directriz que se obtuvo a partir de los requerimientos y necesidades de un grupo heterogéneo en mejorar en la ejecución de su profesión a través de la formación en la programación, permite que se dé un valor agregado con el aprendizaje significativo y en la evaluación de los aprendizajes. 3. La evaluación de un diagnóstico previo. Cada que se confirmaba el registro de un participante donde se obtenían los datos administrativos, se le solicitaba que describiera su formación académica, su experiencia programando y la expectativa que tenía del curso. A partir de lo anterior se hizo la ejecución de la planeación establecida, por lo que se reunió al grupo
  • 90. 89 Asistencias por sesión 33 37 37 40 40 38 38 37 38 32 Dia 1 Dia 2 Dia 3 Dia 4 Dia 5 Dia 6 Dia 7 Dia 8 Dia 9 Dia 10 heterogéneo inscrito (ver Fig. 3) que estuvo participando de forma sincrónica en la plataforma ‘Zoom’ y de forma asincrónica en la plataforma ‘Moodle’. La planeación del curso propuso una estrategia de 10 sesiones durante un poco más de tres semanas, es decir se realizaron tres sesiones por semana. Fig. 3. Evidencia de la estrategia de trabajo a través de plataforma sincrónicas y asincrónicas La asistencia de los participantes en el curso fue alta (ver Fig. 4), lo cual puede indicar que los tema abordados en cada sesión eran de interés, y también las inasistencias se puede deber a las complicaciones de la conectividad y causas personales de los participantes. Como apoyo a no perder algún tema, las sesiones eran grabadas y puestas a su disposición. Fig. 4. Número de asistencias por sesión De los canales de comunicación que ayudaron a que los participantes sintieran apoyo para comentar sus dudas, problemas o situaciones imprevistas fue el abrir un canal de comunicación grupal sincrónica como lo son el ‘Whatsapp’ y el ‘Telegram’, cualquier mensaje de urgencia eran atendidos por estos medios por cualquier participante que apoyaba con comentarios de retroalimentación. Otro elemento que se analiza fue la entrega de actividades posteriores a cada sesión que también fue alto (ver Fig. 5). Aunque se muestra un dato cuantitativo, cada actividad implicaba que el participante hiciera un reporte con evidencia del trabajo realizado, pero lo más importante era que expresaran los problemas que habían tenido al realizar los problemas o ejercicios propuestos, que recomendaran cómo se podría mejorar la actividad y expresaran las conclusiones de la misma.
  • 91. 90 Fig. 5. Número de actividades extra clases revisadas La revisión de actividades extra clase tiene una corresponsabilidad de que los participantes en su formación entreguen sus actividades extra clase en tiempo y forma y, que el asesor responda de la misma manera revisando y retroalimentando las áreas de oportunidad y mejora que puede tener cada participante en el desarrollo del curso. La finalización de un curso de formación continua tiene como componente esencial que el participante realice una integración del conocimiento adquirido y su área de profesión (ver Fig. 6) lo que puede darse a través de una propuesta metodológica del ‘aprendizaje basado en problemas’. Fig. 6. Evidencia de proyectos realizados Un profesionista ya experimenta una serie de problemáticas a resolver en su espacio, por lo que la propuesta de proyectos presentados en la sesión de cierre fue muy enriquecedora hacia todos en el grupo. Para finalizar, este estudio realizado cierra con la realización de un ‘Cuestionario de satisfacción y retroalimentación’ en el cual se obtuvo de un cuestionario anónimo de los participantes de los conocimientos adquiridos, de los aprendizajes significativos, del trabajo en un grupo heterogéneo de distintas carreras y niveles educativos, de las expectativas cumplidas, entre otros elementos. Estos resultados los mencionaremos en la siguiente sección. 5 Conclusiones y trabajo futuro La apertura a nuevas visiones en la realización de los cursos de formación continua con propósito de la extensión universitaria ha permitido observar las relaciones que se establecen entre grupos heterogéneos y de distintos niveles educativos que lo integran.
  • 92. 91 Las experiencias educativas retroalimentan el quehacer académico de una universidad, de su misión hacia un valor agregado a la sociedad, de la intervención de sus profesionistas en su contexto, esto tiene que ir de la mano entre la interacción de sus profesionistas participantes de su entorno externo con todos los personajes a su interior que integran la educación superior. Del cuestionario final realizado a los participantes recuperamos los siguientes comentarios acerca de compartir el conocimiento en un grupo heterogéneo: 1. “Considero que fue muy atinado porque me gusta conocer todo tipo de personas me ayuda a potencializarme. Lo no conveniente fue que algunos tenían mucha preparación en programar, y esto es un peso fuerte que evita hacer preguntas a lo que menos conocen de programación”. 2. “Es algo muy bueno y también divertido, porque hay gente que sabe más que tú y puede enseñarte y a la vez puede haber personas recién iniciadas a las que puedes apoyar, existen muchos puntos de vista y miras los distintos trabajos en los que se encuentran”. 3. “Muy bien. De los menos avanzados hay preguntas, que, aunque sean muy básicas ayudan a tener otra visión del tema, y de los alumnos que están más avanzados se pueden obtener pistas de otras maneras de hacer las cosas”. 4. “Fue mi primera experiencia de este tipo, y fue muy fructífera para mí, ya que escuche a personas de otras áreas de estudio de las cuales no tenía mucha información”. Las experiencias fueron muy diversas, pero en su mayoría satisfactorias, de repente hay sensaciones de la desconexión que hay entre los aprendizajes otorgados en los programas académicos y lo que un profesionista requiere, por lo que estas interacciones son una estrategia para que todos los que participan además de adquirir ciertas competencias o habilidades a su profesión, permite conocer lo que hay que cambiar o innovar al interior de los programas académicos y el quehacer universitario. Referencias [1] F. Redondo. “Leonardo Torres Quevedo: el patrimonio histórico, científico, tecnológico y educativo… y las funciones de la universidad”. Cabás, (17), 134-149. Junio 2017. [2] Pendiente. “Plan de desarrollo institucional 2019-2025. Visión 2030”. (1). 17. 2019 [3] E. Arregui y X. Arreguit. “El futuro de la universidad y la universidad del futuro: Ecosistemas de formación continua para una sociedad de aprendizaje y enseñanza sostenible y responsable”. Aula Abierta, 48(4), 447-480. Octubre- diciembre 2019 [4] J. Tejada y E. Ferrández. “El impacto de la formación continua: claves y problemáticas”. Revista Iberoamericana de Educación. 58(3). 1-14. Marzo 2012 [5] M. Gárate, y G. Cordero. “Apuntes para caracterizar la formación continua en línea de docentes”. Revista de estudios y experiencias en educación, 18(36), 209-221. Abril 2019 [6] C. Belloch. “Diseño instruccional”. Unidad de Tecnología Educativa. 1-15. 2017. [7] J. Salazar. “Evaluación de aprendizaje significativo y estilos de aprendizaje: Alcance, propuesta y desafíos en el aula”. Tendencias pedagógicas. 31. 31-46. 2018.
  • 93. 92 Análisis cuantitativo del uso de recursos tecnológicos en la Plataforma Moodle Mayra Olguín Rosas1 y Socorro Martínez José 2 1 Universidad Nacional Autónoma de México, Facultad de Estudios Superiores Acatlán, Avenida Alcanfores y San Juan, Totoltepec s/n, Sta Cruz Acatlan, 53150 Naucalpan de Juárez, Estado de México 131052@pcpuma.acatlan.unam.mx 2 Universidad Nacional Autónoma de México, Facultad de Estudios Superiores Acatlán, Avenida Alcanfores y San Juan, Totoltepec s/n, Sta Cruz Acatlan, 53150 Naucalpan de Juárez, Estado de México socorro.martinez@comunidad.unam.mx Resumen. Las competencias y habilidades que los docentes deben cumplir, para ejercer su labor frente a un grupo de personas, que serán en un futuro la fuente productiva de una entidad, comunidad, provincia, estado o país, es un tema que nos hemos detenido en abordar preguntando a los estudiantes de acuerdo a lo ofertado el semestre pasado, a fin de identificar cuáles fueron los recursos tecnológicos que más les gustó, y les permitió aprender sobre el contenido de la materia. A fin de hacer un match entre lo que esperan los alumnos y lo que ofreció el docente, resaltando los intereses de los alumnos cuando cursan una materia de nivel licenciatura en su modalidad a distancia. Los resultados ayudarán a generar una guía de recursos tecnológicos para la planificación de actividades que motive al estudiante a aprender, y distinguir en el docente competencias y habilidades que debe cuidar de manera continua. Abstract. The competencies and skills that teachers must meet, to exercise their work in front of a group of people, who will be in the future the productive source of an entity, community, province, state or country, is an issue that we have stopped to address asking the students according to what was offered last semester, in order to identify which were the technological resources that they liked the most, and allowed them to learn about the content of the subject. In order to make a match between what the students expect and what the teacher offered, highlighting the interests of the students when they take a course at the undergraduate level in its distance mode. The results will help to generate a guide of technological resources for the planning of activities that motivate the student to learn, and distinguish in the teacher competences and skills that must be taken care of continuously. Palabras clave. Recursos tecnológicos, modalidad a distancia, plataforma educativa. Desarrollo La pandemia que genero el COVID-19, marca un antes y un después en el uso de plataformas educativas, recursos tecnológicos y cualquier objeto de aprendizaje que se utilizará para impartir una clase. También se generaron diversas ramas de investigación para abordar el tema educativo dadas las circunstancias, tales como el poder adquisitivo de los docentes para comprar equipo de cómputo y seguir con su labor, espacios adecuados para docentes y alumnos para impartir o tomar la clase, la señal de internet que no dejo de ser intermitente en varios momentos de nuestras actividades académicas, entre otras muchas ramas. El objetivo de este análisis, es conocer las preferencias de recursos tecnológicos dirigidos a estudiantes de nivel licenciatura, e incluirlos en la planificación de cursos para motivarlos a aprender. Empezaremos por definir el ambiente educativo en donde se han desarrollado diversos materiales para apoyar de una manera ordenada el aprendizaje de los alumnos. La plataforma educativa que se utilizó durante el semestre 2021-II, periodo que comprendió de Febrero a Junio de 2021, fue Moodle. Ésta plataforma educativa está diseñada para proporcionarle a los docentes, administradores y estudiantes un sistema integrado único, robusto y seguro para crear ambientes de aprendizaje personalizados.2 Actualmente, el LMS (Learning Management System) se encuentra instalado en un servidor de la FES Acatlán UNAM, con el apoyo de un proyecto PAPIME PE306019 (Proyecto de Apoyo Para la Investigación y el Mejoramiento de la Enseñanza) a cargo de la Dra. Mayra Olguín Rosas. Esta plataforma cuenta con varios cursos curriculares dirigidos a alumnos de licenciatura y posgrado de la Facultad de Estudios Superiores Acatlán UNAM. La información que se presenta es sobre la materia Métodos Numéricos II, ubicada en el cuarto semestre de la licenciatura en Matemáticas Aplicadas y Computación. Cabe señalar, que antes de la pandemia COVID-19, la forma de trabajo con los alumnos de manera presencial era compartir en el salón de clases documentos en formato PDF, infografías, presentaciones en power point, 2 Recuperado de: https://docs.moodle.org/all/es/Acerca_de_Moodle, Consultado el 3 de agosto de 2021
  • 94. 93 entre otros materiales, para guiar la clase teórica, mediante el uso del pizarrón, plumones de colores, videoproyector y en su caso bocinas si se contaba con algún material que lo requiriera. Posteriormente, el docente colocaba ejercicios en el pizarrón y acompañaba al estudiante en su elaboración, a fin de resolver las dudas que surgieran en el intento de cada ejercicio realizado. Como parte del reforzamiento del tema, se solicitaba al alumno que realizara una serie de ejercicios y que los subiera a una sección de la plataforma Moodle para posteriormente calificarla dando comentarios breves. Durante el semestre pasado (2021-II), la forma de trabajo con los estudiantes en su modalidad a distancia fue apoyado con sesiones en la aplicación zoom, donde la UNAM apoyó a cada universitario con una cuenta propia. En ocasiones los alumnos indicaban que no podían habilitar su cámara debido a que no contaban con ella, o bien al encenderla los datos o el ancho de banda no era suficiente para escuchar de manera fluida a los participantes de la clase. Mantener las cámaras apagadas, se volvió un monólogo, con silencios que sepultaban el ánimo de los participantes, esta forma de trabajo implicó situaciones emocionales para todos. El docente previo al inicio del semestre, contó con capacitación para el uso de la aplicación zoom, sin embargo, la frase “la práctica hace al maestro” se tardó mucho en volverse una realidad. Dicha plataforma de comunicaciones centrada en la tecnología de vídeo es innovadora, fiable y sencilla, que ofrece reuniones con vídeo, voz, seminarios web y chat en ordenadores, teléfonos, dispositivos móviles y sistemas de salas de conferencias.3 La aplicación se acompañó de tabletas tradicionales, tabletas de dibujo, lápiz electrónico, guante, audífonos, que el docente adquirió por cuenta propia, a fin de continuar con su labor a la distancia. Durante la clase se utilizaron los documentos PDF, infografías, presentaciones en PowerPoint, para guiar la clase teórica. La aplicación zoom permitió compartir los documentos, materiales multimedia, así como las explicaciones a partir del uso de tabletas. Sin embargo, la participación del alumno al realizar los ejercicios fue muy poca, comparado con los resultados vividos en la modalidad presencial, por tal se indago en este hecho apoyado en algunas preguntas que se comparten en los resultados de esta investigación. La plataforma educativa Moodle permitió al docente colocar los recursos y actividades planificados por semana. Así, se contaron con 16 semanas las cuales se denominaron “sesiones”. También el docente cubrió el rol de “curador” al seleccionar varios videos de YouTube, y el rol de “creador” de videos para complementar algunos temas. Por otra parte, el alumno encontró un espacio ordenado para depositar sus tareas y realizar sus actividades, así como darle seguimiento a las calificaciones logradas y a los comentarios de mejora para cada actividad. Se elaboraron listas de cotejo para acompañar a cada actividad o tarea que el alumno entregara, para guiar el desarrollo de acuerdo al objetivo de aprendizaje esperado por el docente. El alumno trabajó en equipo de 4 integrantes máximo, y contaba con 15 días para entregar la actividad, a partir de que se revisaba el tema en la sesión virtual. Descripción del estudio El estudio considera dos grupos con un total de 98 alumnos matriculados, donde 19 de ellos no presentaron el curso y 62 respondieron la encuesta. El instrumento para generar el análisis cuantitativo consta de 11 preguntas, y se solicitó a los alumnos que la respondieran de manera anónima, a fin de conseguir resultados objetivos. La población se distinguió por tener una edad promedio de 21 años. Como se puede apreciar en la figura 1, el 24% pertenecen al género femenino y el resto al masculino. 3 Recuperado en https://zoom.us/es-es/about.html, consultado el 3 de agosto de 2021.
  • 95. 94 Figura 1 Género Los estudiantes utilizaron sus dispositivos electrónicos 61 horas en promedio a la semana para realizar sus actividades académicas, para todas las materias inscritas durante el semestre. Y 18.4 horas promedio a la semana para realizar las actividades de Métodos Numéricos II. Podemos notar que los alumnos utilizan sus dispositivos electrónicos, un poco más de la tercera parte del tiempo para todas sus materias, dado que a la semana se tienen 168 horas. Y 2.6 horas diarias en promedio para la materia de Métodos Numéricos II, considerando los fines de semana, lo cual se intuye cierto, ya que los datos corresponden a alumnos del turno matutino, que regularmente son personas que solo estudian. Los alumnos manifestaron su forma de trabajo durante el semestre, con la siguiente preferencia: Figura 2 Cuando te dispones a realizar tus tareas ¿Cuál es la actividad que le dedicas más tiempo? 1. Revisar recursos y actividades en la plataforma 2. Revisar otros sitios web sobre el tema 3. Contactar a sus compañeros por mensajería (correos, mensajes, WhatsApp, etc) 4. Revisar el calendario de actividades 5. Uso de BIDI UNAM como se muestra en la figura 2. Cabe resaltar, que si bien los accesos abiertos a la internet son más simples para encontrar información, muchos de ellos no son fidedignos, o son de tercera mano o se prefieren porque no se conoce el uso de bibliotecas digitales, para apoyar la consulta y complementar el aprendizaje sobre el área de conocimiento. Por otra parte, el 94% de los alumnos indicaron que fue de su agrado el uso de la plataforma, y el 90% de ellos comentaron que la plataforma sirvió para mejorar su rendimiento académico, como se comparte en las figuras 3 y 4, respectivamente.
  • 96. 95 Figura 3 Fue de tu agrado utilizar la plataforma Figura 4 Usar la plataforma sirvió para mejorar tu rendimiento académico En este estudio, los alumnos señalaron los materiales que les gustaron porque les permitió comprender los temas, lo cual se aprecia en la figura 5. Figura 5 Los materiales que te gustaron, porque te ayudaron a comprender el tema fueron. Resaltemos los recursos que logran 30 votos o más. En primer lugar y con 49 votos fueron Documentos PDF, en segundo lugar Videos elaborados por el docente a cargo del grupo y Cuestionarios, que lograron la misma cantidad de votos. En tercer lugar las Presentaciones en PowerPoint con 34 votos, en cuarto lugar y con 31 votos las Retroalimentaciones a las actividades entregadas, y en quinto lugar y con 30 votos los Videos seleccionados por el docente. De acuerdo, con diversas estrategias de aprendizaje, se ha recomendado usar presentaciones gráficas, diseñados con colores y diversas tipografías para hacer atractiva la enseñanza. Sin embargo, esto no es estrictamente a seguir, ya que depende de la población a la que va dirigida. Recordemos que los recursos tecnológicos fueron ofertados a una población estudiantil en el área de conocimiento en Matemáticas Aplicadas, quienes al parecer prefieren la lectura lineal y no la gráfica, que presenta un documento PDF y no una presentación en PowerPoint, respectivamente, aunque cabe aclarar que dicho recurso logro el tercer lugar de 11 ofertados. En cuanto a los videos, el 62% de los alumnos encuestados prefieren aquellos que son elaborados por el docente que les imparte la materia, y el 48% los seleccionados de otras plataformas. Los Cuestionarios también son aceptados por la población académica encuestada, en un 62%, cuya configuración en Moodle consistió en estar disponible por 15 días, con dos intentos y cada participante del curso lo realiza de forma individual. Finalmente se indago en la forma y gusto por revisar las calificaciones, logrando los siguientes resultados.
  • 97. 96 Figura 6 ¿Es fácil revisar las calificaciones de las actividades? Figura 7 ¿Te gusta revisar las calificaciones asignadas? El 66% de los alumnos indicaron que es fácil revisar las calificaciones de las actividades, y el 92% indicó que le gusta revisar las calificaciones asignadas. Sin embargo, ésta última pregunta estuvo acompañada por la pregunta 11 ¿Porqué? Se puede intuir que aquellos alumnos que si les gusta revisar sus calificaciones, encuentran la siguiente utilidad:  Observar sus errores lo que les permite determinar su comprensión y aprendizaje del tema.  Mejorar la entrega de sus próximas tareas.  Llevar un control y seguimiento de sus trabajos para conocer su evaluación final. Por otra parte, aquellos que indicaron que no les gusta, arrojo palabras como estrés, frustración, enojo y tristeza, que son sentimientos. Esto se pudo originar por limitaciones de equipo de cómputo o internet en sus hogares, mala organización de su tiempo o no contar con un espacio de estudio adecuado. Los sentimientos que se generaron en los alumnos pueden presentarse en la modalidad presencial o a la distancia, debido a que es sabido que los procesos evaluativos nos sacan de nuestra zona de confort para una mejora. Por otra parte, la plataforma educativa Moodle permite que dicho proceso se realice de manera ordenada y confidencial, a fin de ser respetuosos y cautos para lograr una evaluación objetiva. Conclusiones Este trabajo presenta evidencias sobre las preferencias de los alumnos en el uso de recursos tecnológicos en una modalidad a distancia. Aunque se pudo observar que se ofertaron al menos 11 diferentes tipos de recursos, el rendimiento del estudiante fue de 6.5 (promedio de calificación aprobatoria) para los 64 alumnos aprobados. Los sentimientos negativos del alumno se pueden deber al aislamiento que produce tomar cursos a la distancia. Por otra parte, no se puede comparar el rendimiento con un ambiente presencial, debido a que los entornos son muy diferentes, pero debe quedar claro que el compromiso para ofertar y recibir conocimientos significativos y duraderos, no solo depende del docente, ni de sus habilidades y competencias para impartir su cátedra, con todo lo que implica, sino también del compromiso, habilidades y competencias de los alumnos. Con la lista de preferencias de recursos tecnológicos que se presentan, desde el punto de vista del estudiante, se cuentan con la base para iniciar la planificación de los mismos y continuar con estructurar una metodología de comunicación activa para que todos los actores de este ambiente a la distancia se sientan acompañados, a fin de disminuir para todos los sentimientos negativos. Referencias 1. Regueiro-Gómez A., Busoch-Morlán CB, Busoch CR, Sánchez-Bao R. (2013) Experiencias en la enseñanza semipresencial en el Plan de Estudio de Ingeniería Biomédica en el “Instituto Superior Politécnico José Antonio Echeverría”. En: Folgueras Méndez J. et al. (eds) V Congreso Latinoamericano de Ingeniería Biomédica CLAIB 2011 16-21 de mayo de 2011, Habana, Cuba. Actas de la IFMBE, vol. 33. Springer, Berlín, Heidelberg. https://doi.org/10.1007/978-3-642-21198-0_94
  • 98. 97 2. Sitio oficial Moodle. Recuperado de: https://docs.moodle.org/all/es/Acerca_de_Moodle, Consultado el 3 de agosto de 2021 3. Sitio oficial Zoom. Recuperado en https://zoom.us/es-es/about.html, consultado el 3 de agosto de 2021. 4. del Moral Pérez, M.E., Villalustre Martínez, L. University teaching in the 2.0 era: virtual campus teaching competencies. Revista de Universidad y Sociedad del Conocimiento 9, 231–244 (2012). https://doi.org/10.7238/rusc.v9i1.1127
  • 99. 98 Tecnología móvil para la educación de la salud en tiempos de pandemia en estudiantes de Media Superior Carmen Cerón1 , Isabel Sánchez1 , Etelvina Archundia1 , Víctor Manuel Mila2 y Patricia López3 1 Facultad de Ciencias de la Computación, Benemérita Universidad Autónoma de Puebla Avenida San Claudio y Boulevard. 14 sur, Ciudad Universitaria Puebla, Pue, 72570 México. {carmen.ceron, isabel.sanchez, etelvina.archundia}@correo.buap.mx 2 Preparatoria Benito Juárez García, Benemérita Universidad Autónoma de Puebla Blvd. 14 sur y Circuito Juan Pablo, Colonia San Manuel, Puebla, Pue, 72570 México. victor.mila@ correo.buap.mx 3 Facultad de Medicina, Benemérita Universidad Autónoma de Puebla 27 poniente y esq. 13 sur, Colonia Volcanes, Puebla, Pue, 72090 México. paty.lopez@correo.buap.mx Resumen. El propósito del trabajo es analizar el impacto de la App para apoyar la Competencia 3. “Elige y practica estilos de vida saludables”. Siendo una herramienta para la promoción de salud en hábitos de alimentación y ejercicio para evitar el sobrepeso y sedentarismo. La investigación fue cuantitativa y exploratoria con una muestra de 40 alumnos. Los resultados obtenidos al inicio del semestre, mostraron que 85% de los estudiantes tenían malos hábitos de alimentación, poco ejercicio y la tendencia en el peso era sobrepeso. Al finalizar el semestre, de acuerdo al registro un 45% mejoraron los hábitos de alimentación y ejercicio mediante el seguimiento y el uso de la App. Finalmente, los estudiantes consideran que el aprendizaje móvil apoya en un 80% el cuidado del peso y facilita la educación de la salud, además de cuidar aún más su salud en tiempos de pandemia. Palabras clave: App, IMC, Bachillerato, Hábitos alimenticios, Estilos de vida Abstract. The purpose of this work is to analyze the impact of the App to support the Competence 3. “Chooses and practices healthy lifestyles”. Being a tool for the promotion of health in eating and exercise habits to avoid overweight and sedentary lifestyles. Research was quantitative and exploratory with a sample of 40 students. The obtained results at the beginning of the semester, 85% of students had poor eating habits, little exercise and the trend in weight was overweight. At the end of the semester, according to the register, in 45%, they improved the eating and exercise habits through the follow-up and use of the App. Finally, students consider that mobile learning supports in 80% the weight care and ease health education, moreover to take even more care in their health in pandemic times. 1 Introducción En la última década América Latina enfrenta importantes desafíos en materia de educación donde las problemáticas como: altas tasas de reprobación, deserción en bachillerato; baja calidad educativa; y programas de formación del profesorado insuficiente, son parte de lo que se ha venido acentuando en las zonas urbanas y rurales. Como alternativa la UNESCO [1] ha recomendado el uso de la tecnología móvil en la educación tanto del sector público como privado proponiendo como una estrategia el “aprendizaje móvil” y hacer frente a algunas de las necesidades educativas, ya que con el crecimiento del uso de la telefonía móvil pueden incursionar como una herramienta para este aprendizaje, lo cual requiere todo un proceso de formación y programas que puedan incluir y no aumentar la brecha digital ya existente. Por otra parte, problema de salud mundial de la pandemia y con llegada del virus Covid-19, se ha enfatizado el cuidado de la Salud. En la actualidad por la pandemia de Covid-19, se requieren establecer estrategias para poder educar a la población en el cuidado de su salud y acceso a la información. La Organización Mundial de la Salud (OMS) en diversos programas como ha incorporado en el uso de las Tecnologías de la Información y Comunicación (TIC) para la promoción de la salud como son de hábitos saludables y cuidado del
  • 100. 99 individuo. Así también la OMS ha reconocido la salud digital siendo “el uso de tecnologías digitales, móviles e inalámbricas para respaldar el logro de objetivos de salud. La salud digital describe el uso habitual de las tecnologías de la información y la comunicación (TIC) para la salud e incluye tanto la m-Salud como la e-Salud” [2] Con base a lo expuesto esta investigación tiene como objetivo analizar el impacto de la App para el cuidado del peso apoyando la Competencia 3 “Elige y practica estilos de vida saludables” y para apoyar la promoción y de la educación para la salud ante la pandemia del Covid-19 permitiendo el acceso a la información de manera práctica y flexible. El documento está estructurado de la siguiente manera: En la sección 2, se presenta estado del arte. En la sección 3, se define la metodología y diseño de la aplicación. En la sección 4, se muestran los resultados de la investigación y finalmente en la sección 5, se presentan las conclusiones y perspectiva de esta investigación. 2 Estado del Arte Para Kostkova [3] la educación de la salud la define como “el uso de Internet y las tecnologías de comunicación para mejorar la salud humana, los servicios de atención a la salud y el bienestar de los individuos y las poblaciones”. El uso de las TIC ha permitido crear entornos de aprendizaje y de comunicación, logrando obtener, transmitir y compartir, de inmediato, abundante información en estos tiempos de la pandemia. Por otro lado, las TIC en general y, los dispositivos móviles como tabletas, teléfonos, smartwatchs, prendas inteligentes y otros dispositivos, son utilizados especialmente en los adolescentes ya que son motivantes para ellos, las TIC pueden ofrecer también la oportunidad de fomentar hábitos saludables. Según [4] afirman que “este tipo de intervenciones pueden potenciar o complementar el impacto de las estrategias empleadas, siendo las TIC favorables y atractivas para la niñez y adolescentes”. Con respecto al uso de la tecnología móvil en educación es una poderosa herramienta educativa debido a sus características: portabilidad, inmediatez, conectividad, ubicuidad y adaptabilidad [5]. En este momento de crisis, los países deben demostrar con acciones un compromiso con la niñez y adolescencia para asegurar la salud física y emocional teniendo el cuidado y la aplicación de medidas preventivas y educación para la salud. La promoción de la salud se retoma como una estrategia básica para la adquisición de conocimientos y el desarrollo de aptitudes o habilidades personales que conlleva a cambios de comportamiento relacionados con la salud y al fomento de estilos de vida saludables [6]. Los diversos estudios del Covid-19 han demostrado que las personas con más comorbilidades son más vulnerables en contraer la enfermedad, de acuerdo con el IMSS, 1 de cada 3 mexicanos padece hipertensión y 6.5 millones de adultos mayores de 20 años viven diabetes [7]. Según reportes oficiales, más del 40% de los fallecidos por Covid-19 tenía diabetes o alguna enfermedad crónica no transmisible, siendo un panorama fatal ante las olas de contagio de la pandemia que se han presentado a nivel mundial Por otra parte, el sobrepeso y la obesidad son factores de riesgo para enfermedades como la hipertensión, las enfermedades cardiacas, diabetes, artrosis, entre otras. Los resultados de las investigaciones son contundentes: si no adquirimos pronto un estilo de vida saludable, en menos de tres décadas nuestro país tendrá uno de los más altos índices de la región con pacientes diabéticos, hipertensos y cardíacos; entre otras patologías. Existen diferentes aplicaciones en el campo de la salud, más de 97,000 apps que pueden descargarse. De las cuales, el 70% están destinadas a bienestar y deporte mientras que el otro 30% son exclusivas para pacientes y profesionales de salud que les facilita el acceso a datos de salud del paciente, monitorización, diagnóstico por imagen, entre otros. De acuerdo al estudio [8] pueden ser clasificadas por su propósito y tipo de usuario a) Sistemas de Salud: Se refiere a los sistemas informáticos, reportes, encuestas e infraestructura para atender a la población como e-Health en Perú, m-Health en Brasil, Cell PREVEN en Perú entre otras.
  • 101. 100 b) Profesional de Salud: Son aquellas aplicaciones en cada rama específica o especialidad que permite tener información de manera precisa, reduciendo tiempo y acceso lo cual aumentan la eficiencia y el apoyo al profesional como Mendscape ofrece calculadoras médicas, información sobre medicamentos y casos clínicos. c) Pacientes: información necesaria para tratamiento de enfermedades crónicas; a su vez mejorando los tiempos en hospitales y comunicación hospital-paciente. d) Usuario No Paciente: los dispositivos móviles ofrecen aplicaciones al alcance de sus necesidades estableciendo parámetros y midiendo signos vitales para la mejora de la nutrición o por el contrario el Índice de Masa Corporal (IMC), la presión sanguínea y en general su bienestar físico y mental. Con respecto a esta última clasificación, se ha diseñado aplicaciones sobre el IMC para identificar posibles problemas de salud de los adultos. Sin embargo, el IMC no es una herramienta de diagnóstico por ello para determinar si el exceso de peso es un riesgo para la salud, un proveedor de atención médica necesitará realizar evaluaciones adicionales. Por lo cual el objetivo general de la aplicación móvil propuesta es calcular el índice de masa corporal, el peso ideal, la ingesta de agua promedio, la tasa metabólica basal, relación cintura-altura, relación cintura-cadera a partir de datos proporcionados por el usuario, de tal manera que la información le permita tomar decisiones con respecto a su salud y finalmente recomendar una serie de actividades y de un control nutricional basado en la ciencia, es decir, comer de manera sana. Esto conlleva a revisar el impacto que tienen los estudiantes de educación media superior al utilizar el dispositivo móvil y su aplicación para apoyar la formación de la competencia 3. “Elige y practica estilos de vida saludables” Así también analizar si “el uso de esta aplicación le sirvió para practicar un estilo de vida saludable en la pandemia para cuidar su salud”, teniendo como punto de partida el sobrepeso. 3 Metodología La investigación se enmarca en la metodología cuantitativa, no experimental y de carácter exploratorio, lo cual permite acercarnos al análisis y diagnóstico de la situación de estudio. Para el desarrollo de la aplicación móvil se utilizó la metodología ágil, la cual consiste en desarrollo incremental mediante sprints [9]. El tipo de aplicación móvil que se diseño fue orientada a la categoría para Usuario-No Paciente. El caso de uso en UML representa un objetivo sencillo de un sistema donde describe una secuencia de actividades y de interacciones con el usuario para alcanzar un objetivo, como se observa en la Figura1. Fig. 1. Caso de uso de la aplicación móvil. Para el desarrollo se utilizó Flutter es un framework de código abierto desarrollado por Google para crear aplicaciones nativas de forma fácil, rápida y sencilla. Su principal ventaja radica en que genera código 100% nativo para cada plataforma, con lo que el rendimiento y la UX son totalmente idéntico a las aplicaciones nativas tradicionales. Para la base de datos se utilizó Firestore que es flexible y escalable para el desarrollo en servidores, dispositivos móviles y la Web mantiene los datos sincronizados entre apps cliente a través de objetos de escucha en tiempo real. Para la autentificación se utilizó Firebase Authentication logrando un
  • 102. 101 backend personalizado. En la Figura 2, se observa los slash y ventanas de la aplicación móvil que permite al usuario el registro, calculo IMC y recomendaciones de acuerdo a sus resultados. Fig. 2. Slash y ventanas de la aplicación. 4 Resultados y pruebas de la aplicación Para probar el funcionamiento en un grupo piloto de 40 estudiantes se les pidió usar la App durante el semestre de primavera 2021 y al finalizar se realizó una encuesta de usabilidad usando escala Likert del 1 al 5. Las preguntas se dividieron en cuatro categorías: 1) Atención y Motivación, 2) Aprendizaje Activo y Autónomo, 3) Recurso didáctico digital y 4) Accesibilidad Los resultados obtenidos se observan en la Tabla 2 y en la Figura 3. Atención y moticación Aprendizaje activo y autónomo Recurso didáctico digital Accesibilidad Totalmente en desacuerdo 0% 2% 0% 0% En desacuerdo 2% 3% 13% 5% Indiferente 11% 11% 11% 15% De acuerdo 23% 15% 27% 23% Totalmente de acuerdo 64% 69% 50% 58% Tabla 2. Resultados de la Encuesta de Usabilidad de la App Fig. 3. Grafica de los resultados de la usabilidad de la App. Los estudiantes consideran el uso de manera positiva la App en un 84% les ayuda a aprender de manera activa y autonoma, es decir, les facilita interactuar con la aplicación para poder realizar su seguimiento de atención y cuidado de su salud en el caso del sobrepeso. Así tambien las recomendaciones y sugerencias de la App les motiva de manera positiva en un 87 % utilizarla y solo entre un 11% y 15% les pareció indifiderente para los estilos de vida saludable. Es importante señalar
  • 103. 102 App apoya un estilo de vida saludable 20% S… 80% los comentarios de los estudiantes fueron postivos “Una Buena aplicacion para consientizar que no debemos tomar a la ligera la obesidad y cuidarnos para nuestro bien”, “la App es muy interesante”, entre otros. Con respecto a la competencia 3. Elige y practica estilos de vida saludables y los atributos: A. 3.1 Reconoce la actividad física como un medio para su desarrollo físico, mental y social, y A. 3.2 Toma decisiones a partir de la valoración de las consecuencias de distintos hábitos de consumo y conductas de riesgo, se lograron evaluar. Para identificar los niveles del logro de la competencia, se aplicó un test al final en la materia de Tutoría y la estrategia de evaluación del esquema de semáforo. Los resultados obtenidos se muestran en la Tabla 2. Criterio de Logro Competencia 3. Elige y practica estilos de vida saludables Descripción del criterio de logro % Alumnos A3.1 A3.2 C3 Rojo No desarrollada, (Bajo, menor a la media) 0% 0% 0% Amarillo desarrollo (Regular, dentro de la media) 10% 15% 25% Verde arrollada (Alto, superior a la media) 30% 45% 75% Tabla 2. Resultados de las Competencias disciplinares en estrategia de semáforo Esta estrategia evaluativa tiene como objetivo compartir con los estudiantes las metas de aprendizaje y promover la participación activa en el desarrollo de las competencias. Se observa que los alumnos por medio del uso de la App pudieron realizar un seguimiento a su control de peso y poder contribuir al desarrollo de la Competencia C3, mediante su atributo A2, donde el estudiante asumió su responsabilidad y tomo la decisión de cambiar su estilo de vida, logrando activarse mediante el ejercicio y mejorar sus alimentación ya que el peso se registraba de manera constante en la App y la tutora les pido durante ese semestre utilizarla. Esto permitió que los estudiantes aumentaran su actividad física y mental. Por otra parte la premisa “el uso de esta aplicación le sirvió para practicar un estilo de vida saludable en la pandemia para cuidar su salud”, teniendo como punto de partida el registro del sobrepeso mediante el IMC y los demás parámetros, 80% afirmaron que si les ayudo y el 20% comento que no les ayudo como se muestra en la Figura 4, lo cual conlleva que la toma de decisión y compromiso del estudiante es muy importante para desarrollar hábitos saludables y que las Apps les facilita el aprendizaje y motiva para lograr las metas de aprendizaje. Fig. 4. Grafica de los resultados del uso de la App para apoyar un estilo de vida saludable 4 Conclusiones y Trabajos Futuros En el presente trabajo, se logró el desarrollo e implementación de una aplicación móvil para apoyar la educación y promoción en la salud como una herramienta de gestión del cuidado del sobrepeso para apoyar a los estudiantes de educación media superior, y a la obtención de las competencias genéricas de perfil de egreso y en específico la “Competencia 3. Elige y practica estilos de vida saludables” logrando utilizar el manejo de
  • 104. 103 una aplicación que los motive a aprender y tomar decisiones para para mejorar su salud en estos tiempos de pandemia. Por otra parte, el trabajo a futuro es poder desarrollar el uso de Apps que les ayude en el cuidado y promoción de la salud que permita mejorar su calidad de vida entre los jóvenes y contribuir a sensibilizar a esta población ante este tipo de consecuencias en la salud del individuo. Además que las Apps estén disponibles para otros planteles del Bachillerato Universitario-BUAP y también de otros subsistemas de educación media superior. Así como ampliar las pruebas de funcionales y de usabilidad que permitan mejorar las experiencias de usuario usando tecnología móvil. Agradecimientos. A la Vicerrectoría de Investigación y Estudios de Posgrado de la Benemérita Universidad Autónoma de Puebla por el apoyo y financiamiento de esta investigación y a los estudiantes del Bachillerato BUAP por su participación entusiasta y la de los docentes. Referencias [1] UNESCO. Directrices de la UNESCO para las políticas de aprendizaje móvil. UNESCO, 2013. [2] Organización Mundial de la Salud. Monitoring and evaluating digital health interventions: A practical guide to conducting research and assessment. OMS, 2016. [3] P. Kostkova. Grand challenges in digital health. Frontiers in Public Health, Año 3, No. 134, 2015. doi: 10.3389/fpubh.2015.00134 [4] J. Rodrigo, J. Sevil, J. Julián, E. Generelo and R. Pérez. Implementación de las tecnologías de la información y la comunicación en la promoción de hábitos saludables. Servicio de Publicaciones, 2019. [5] C. Cantillo, M.Roura and A. Sánchez. Tendencias actuales en el uso de dispositivos móviles en educación. La educación digital Magazine. 147, pp. 1-21, 2012. [6] C. Cantillo, M.Roura and A. Sánchez. Tendencias actuales en el uso de dispositivos móviles en educación. La educación digital Magazine. 147, pp. 1-21, 2012. [7] M. Hernández-Ávila, J.P. Gutiérrez and N. Reynoso-Noverón. Diabetes mellitus en México: El estado de la epidemia. Salud Pública de México, 55, 2, pp. 129-136, 2013. [8] A. Burgos and H. Echeverry. Estado del Arte del Uso de Aplicaciones en Dispositivos Móviles en el Área de la Telemedicina. Universidad tecnologia de Pereira, 2012. [9] R. S. Pressman. Ingeniería de Software un enfoque práctico. Mc Graw Hill, 2002.
  • 105. 104 El reto de enseñar tecnologías de alto desempeño en modalidad virtual derivado de la contingencia sanitaria. Caso de estudio: Licenciatura en Ingeniería en Ciencias Computacionales del Centro Universitario de Tonalá, Universidad de Guadalajara José Guadalupe Morales Montelongo1 , Berenice Martínez Álvarez2 , Edna Minerva Barba Moreno3 , Jorge Lozoya Arandia4 Centro Universitario de Tonalá, Universidad de Guadalajara, Av. Nuevo Periférico No. 555 Ejido San José Tateposco, C.P. 45425, Tonalá, Jalisco, México. Jose.Gpe.Morales@academicos.udg.mx1 , Minerva.Barba@academicos.udg.mx3 Jorge.LArandia@academicos.udg.mx4 Centro Universitario de Ciencias Sociales y Humanidades, Universidad de Guadalajara, Guanajuato No. 1045. C.P. 44260. Col. Alcalde Barranquitas, Jalisco, México. berenice.malvarez@academicos.udg.mx2 Resumen. El proceso de enseñanza aprendizaje en tiempos de contingencia sigue representando un reto para integrar elementos que permitan dinamizar nuestros cursos. Por ello, en este trabajo se presentan, en un ejercicio de compartir experiencias, las diversas adaptaciones que se realizaron al curso Seminario de Tecnologías de Alto Desempeño, de la Licenciatura en Ingeniería en Ciencias Computacionales, en el ciclo escolar 2021A. Abstract. The teaching-learning process in the current emergency challenged the teachers in order to integrate dynamics and new elements into current courses. Therefore, this work will share the adaptations that were made to the High-Performance Technologies Seminar subject at the BS in Computer Science Engineering during 2021A cycle. Palabras clave: Big Data, tecnologías de alto desempeño, HPC, Google Classroom, algoritmos, MOOC, rúbricas para la evaluación. Área de conocimiento: Otros temas de interés: gestión de la continuidad académica ante el escenario de confinamiento global. 1. Introducción La Universidad de Guadalajara (UdeG) es una institución pública de educación superior que ofrece un gran abanico de programas educativos de pregrado y posgrado a través de su Red Universitaria, la cual se conforma por Centros regionales y metropolitanos. Entre ellos, se encuentra el Centro Universitario de Tonalá (CUTonalá) que se caracteriza por ser un campus multitemático, y que ofrece alternativas de estudio de educación superior para la población al oriente del área metropolitana de Guadalajara. Una de las líneas que busca desarrollar este Centro Universitario es la de innovación tecnológica. Por ello, ofrece entre sus programas académicos, la Licenciatura en Ingeniería en Ciencias Computacionales (LICC), adscrito al Departamento de Ciencias de la Información y Desarrollos Tecnológicos. Programa que se orienta al desarrollo de competencias para el diseño y desarrollo de sistemas de información, así como para el procesamiento y análisis de grandes volúmenes de información, entre otros. Por ello, el proceso de enseñanza de las diferentes unidades de aprendizaje de este programa de estudio es muy rico en el uso y aprovechamiento de las tecnologías. Sin embargo, sigue representando un reto al ingenio y creatividad de los académicos en un escenario donde sigue vigente la contingencia sanitaria mundial.
  • 106. 105 Lo antes mencionado generó que el ciclo escolar 2021A fuera necesario continuar con los trabajos de manera a distancia para aminorar los contagios entre la comunidad académica y estudiantil de esta casa de estudios. Dicha situación sigue retando nuestra práctica docente y visión en pro de la enseñanza para integrar nuevos elementos y actividades a nuestros cursos, en busca de facilitar el proceso de enseñanza aprendizaje. Motivo por el cual, el presente trabajo mostrará los diferentes recursos y esfuerzos implementados en la materia de Seminario de Tecnologías de Alto Desempeño para dinamizar un poco más el proceso de enseñanza e ir un poco más allá de estudiar y entregar tareas de manera individual en un contexto de distancia social. 2. Unidad de aprendizaje El programa de la Licenciatura en Ingeniería en Ciencias Computacionales (LICC) ofrece diferentes unidades de aprendizaje orientadas al desarrollo de competencias en los estudiantes con la intención de que analicen, diseñen y desarrollen sistemas de información, así también en el uso de herramientas que posibiliten el análisis y procesamiento de grandes volúmenes de información, entre otros. Algunas de las temáticas que se desarrollan en el programa de Seminario de Tecnologías de Alto Desempeño son las siguientes: 1. Introducción al Big Data 2. Introducción a Hadoop 3. El sistema de archivos HDFS 4. Programación con MapReduce 5. Apache Spark 2.1. Diagnóstico del entorno de los estudiantes al inicio del curso La aún vigente contingencia sanitaria sigue impactando tanto en la economía como en la salud física y emocional de nuestros estudiantes y sus familias. Por ello, como profesores debemos sensibilizarnos un poco más para conocer si nuestros alumnos se encuentran en alguna situación particular que pueda demeritar su esfuerzo para realizar las actividades en sus diferentes cursos. En ese sentido, previo al inicio de las actividades programadas para este curso, se preparó y aplicó la encuesta “Diagnóstico del entorno, acceso digital y experiencia en línea de los estudiantes” a los alumnos matriculados en el curso Seminario de Tecnologías de Alto Desempeño, grupo que ese ciclo escolar se caracterizó por ser numeroso y que prácticamente todos los alumnos participaron, con lo que se contó con 29 respuestas. Dicho instrumento fue diseñado para identificar las condiciones del área de estudio y las características de conectividad en los hogares de los estudiantes, así como las características y capacidades del equipo de cómputo que utilizarían para el presente curso. Además de conocer la dedicación y responsabilidades que tienen los alumnos más allá de los académicos. Finalmente, su percepción e impacto que ha representado el trabajo virtual en este entorno de contingencia sanitaria. Los resultados de dicha encuesta arrojaron que más del 48 por ciento de los estudiantes, además de atender sus deberes escolares tienen un empleo de medio o tiempo completo. Así también, un poco más del 30 por ciento también participa de manera importante en las responsabilidades de su hogar. Adicional a ello, se les consultó a los alumnos algunas de las acciones que realizarán durante el ciclo escolar para atender sus diversas actividades. Entre las acciones que mencionaron se encuentra el de gestionar mejor sus tiempos, otros mencionan que el tratar de adelantar tareas sería de utilidad para ellos para así aminorar la tensión cercana al fin del ciclo escolar. Otros mencionaron también que debido a que ya se tiene casi un año trabajando de esta manera, se sienten con más experiencia para realizar sus cursos a distancia en este ciclo escolar. Algunos otros mencionaron no sentirse preparados del todo, pero aún así darían su mejor esfuerzo. Por otra parte, se consultó respecto de la habilitación tecnológica del estudiante en su propio hogar para realizar las actividades del presente curso. Entre los aspectos consultados se encuentra la disponibilidad de una conexión de internet, a lo que todos refieren contar con ella, siendo en la mayoría servicio en casa, a través de WiFi o cable directo al router. En cuanto a los dispositivos tecnológicos los alumnos indicaron contar con equipo de cómputo de escritorio y otros equipo de cómputo portátil. Todos manifestaron tener un celular propio y menos del 3 por ciento indicaron
  • 107. 106 contar con una tableta. Dada la naturaleza del curso, es necesario emplear herramientas que demandan capacidades mínimas de 8GB de memoria RAM, por ello, es de suma importancia conocer las características y capacidades de los equipos de cómputo que utilizarán en la asignatura. Se obtuvo que más del 40 por ciento tiene instalado en su equipo de cómputo el sistema operativo Windows con 8GB de RAM o menos. Un poco más del 30 por ciento mencionó contar con más de 8GB de RAM bajo el sistema Windows. Y menos del 3 por ciento cuenta con Linux con 8GB de RAM o menos. El resto mencionó tener equipos con menos de 4 GB. Plataforma < 4 GB RAM 4-8 GB RAM >8 GB RAM Windows 17% 44% 34% Linux --- 3% --- Finalmente, otro aspecto consultado fue el de si los estudiantes habían tomado algún curso vritual en los últimos 3 meses y se encontró que el 34 por ciento mencionó que sí por lo menos un curso. El 31 por ciento mencionó haber iniciado uno, pero sin concluirlo y poco más del otro 34 por ciento mencionó que no tomó ningún curso por internet. Los aspectos antes consultados son prioritarios identificar las condiciones de conectividad y entorno digital necesarias para que puedan realizar las diferentes actividades diseñadas para el curso de la asignatura de Seminario de Tecnologías de Alto Desempeño. La asignatura requiere un equipo de cómputo con altas prestaciones de memoria RAM (8GB), por lo que este diagnóstico permite orientar al profesor acerca de las alternativas que serán necesarias para que los estudiantes logren concretar las actividades y prácticas que así lo requieren. Entre otras, por ejemplo, motivar gestionen el préstamo de un equipo con compañeros, familiares o terceros. Asimismo, para quienes no concretan dicha alternativa, se consideró un esquema que se detalla más adelante. 2.2. Adaptaciones al curso en el ciclo escolar 2021A La enseñanza en tiempos de contingencia sanitaria sigue representado un reto tanto para académicos como para estudiantes. Es por ello, que se ha convertido en una búsqueda constante el integrar nuevos elementos y herramientas que los procesos de aprendizaje y de cómo se presentan los diversos contenidos de los cursos. En ese sentido, se detallan en seguida las adaptaciones y consideraciones implementadas en el curso referido: a) Curso en Google Classroom Los contenidos se organizaron en las siguientes temáticas:  Presentación de la asignatura;  Preparativos del curso;  Módulo 1 - Introducción al Big Data;  Módulo 2 – Introducción a Hadoop;  Módulo 3 - El sistema de archivos HDFS;  Modulo 4 - Programación con MapReduce;  Módulo 5 - Apache Spark;  Actividades de Cierre. Sección: Preparativos del curso En uno de los materiales de contexto publicado en el Google Classroom, que se encuentra en la sección de preparativos, se brindaron preguntas para la reflexión respecto del procesamiento Big Data para que con ello dimensionen la importancia, uso e impacto de las Tecnologías de Alto Desempeño en la actualidad. Algunas de las cuestionamientos planteados fueron: ¿Te has preguntado respecto de cómo se logró una vacuna para COVID-19 en menos de 10 meses? ¿Cómo se puede revisar 1TB de radiografías en minutos para diagnosticar pacientes con ese virus? Después de ello, se solicita que se registren en el sitio web Coursera, dado que se asociarán las actividades de esa plataforma con las tareas del presente curso.
  • 108. 107 Módulos del curso Seguido de ello, se presentan los módulos en donde se brindan diversos contenidos de las temáticas particulares para cada una de ellas. En dicho espacio se brinda una sugerencia de visualización de los materiales, así como una breve presentación del tema, también los recursos incluyen videos de YouTube, sitios web con temáticas relevantes y artículos académicos. Aunado a ello, se publicó la grabación de la sesión por videoconferencia al inicio del ciclo para su consulta posterior por parte de los estudiantes. Adicional a ello, se diseñaron diferentes tareas, las cuales fueron numeradas, tituladas, y se integraron elementos para que el estudiante identifique lo que necesita para realizar la tarea, cuales son los entregables esperados, así también se le brindó una descripción de la actividad, así como los casos en los que se podría invalidar el trabajo (ej. plagio). Y finalmente, una rúbrica con los criterios para cada tarea. b) Rúbricas El objetivo del diseño e integración de rúbricas en las diferentes tareas en este curso, es facilitar que previo a la entrega, el estudiante realice un ejercicio de auto revisión para que de antemano conozca si su producto cumple con los elementos solicitados, y si no conozca los puntajes a los que será acreedor. Algunos de los elementos considerados en las rúbricas son la entrega puntual del producto, el adecuado uso de ortografía y redacción. Asimismo, para los cuesitonarios considera si el entregable incluye las respuestas solicitadas, de manera que demuestren una comprensión clara y cobertura de los temas abordados en el trabajo. Otras rúbricas fueron integradas para la entrega exámenes aprobados y avances en la plataforma Coursera, así como de las prácticas planteadas en el curso de dicha plataforma. El esquema de entrega puntual se indicaba lo siguiente: (1) entrega en el plazo indicado puede lograr hasta 100 puntos; (2) entrega demorada menor a 7 días, hasta 95 puntos; (3) entrega demorada de 7 o más días, hasta 90 puntos. Esto propició que los estudiantes tuvieran la motivación de entregar alrededor del plazo fijado; por otra parte, tener una reducción poco significativa de puntaje en el resto del semestre brindó una alternativa para la entrega de tareas de muchos estudiantes que en la mitad del curso lograron ponerse al corriente sin grandes afectaciones. c) Curso en Coursera Con la intención de ampliar los conocimientos en los temas de este curso, así como de aprovechar las ventajas de los MOOC, se integró, para desarrollo en paralelo, el curso “Hadoop Platform and Application Framework”
  • 109. 108 impartido en Coursera por el Centro de Supercómputo de la Universidad de California en San Diego. Dicho curso también contribuye al desarrollo del perfil de internacionalización de los estudiantes dado que los contenidos fueron desarrollados en idioma inglés, por lo que los alumnos atienden contenidos de esta lengua de manera transversal. El estudiante debía revisar y realizar las actividades diseñadas y dispuestas en la plataforma Coursera, y de manera paralela éstas se complementan con actividades y tareas en la plataforma de Classroom, para así fortalecer ambas actividades y afianzar los conocimientos que se adquieran de esas prácticas. d) Charla con experto invitado En el presente curso se integró una charla con un ingeniero de Big Data, con la intención de brindar a los estudiantes la experiencia de un experto en el tema. Además de conocer algunos de los proyectos en los que trabajó y en los que se implementaron tecnologías de Big Data. e) Herramientas adicionales e integradas en el curso En el curso se aborda la interacción con las herramientas Apache Hadoop y Apache Spark, que son de licenciamiento libre, y permiten programar aplicaciones distribuidas para procesar grandes volúmenes de datos (big data). Una versión de estas herramientas están integradas en una máquina virtual (VM, del inglés Virtual Machine) utilizada en el curso en Coursera, misma que corresponde a una distribución Linux de Cloudera para el entrenamiento de personas en temáticas de BigData. Para que el estudiante interactúe con la VM es necesario ejecutarla en VirtualBox, aplicación que permite la ejecución de máquinas virtuales en los equipos de cómputo de los estudiantes para hacer las prácticas indicadas. f) Facilidad para acceder a un equipo remoto para resolver prácticas de VM Debido a que la dinámica y naturaleza del curso requieren realizar algunas actividades con el apoyo de una Virtual Machine en sus propios equipos de cómputo, y de acuerdo a la encuesta de que se aplicó a la mitad del ciclo, se detectó que para algunos estudiantes esta actividad representó un reto tecnológico, dado que sus equipos de cómputo no tenían la capacidad para realizar las prácticas de VM por disponer de equipos de cómputo con insuficiente memoria RAM. Para resolver esta situación, la mayoría de los estudiantes lograron conseguir temporalmente equipos de cómputo con las capacidades requeridas. Sin embargo, algunos no lograron resolver esta situación, representando una afectación importante a sus entregas. Por ello, como un esfuerzo y servicio adicional para brindar elementos suficientes para que los estudiantes puedan realizar sus diversas prácticas, se preparó un equipo de cómputo adquirido con recursos de PRODEP con memoria suficiente para ejecutar la VM. Así, se ideó el uso en línea por parte de los estudiantes en la situación antes referida, quienes ahora podrían realizar las prácticas de VM. Entre las reglas se indicó solicitar su uso con 48 horas de anticipación y se sujetó a una agenda de disponibilidad. Esta facilidad fue aprovechada y permitió superar esta limitante, avanzando exitosamente en la entrega de las prácticas referidas. g) Encuestas para conocer la percepción y avance de los estudiantes En el curso referido se integraron diferentes encuestas al inicio, a la mitad del curso y al final del mismo para conocer la percepción de los alumnos, tales como la organización del curso, su nivel de motivación y cómo resolvieron ciertas problemáticas técnicas en ejercicios específicos. Estas encuestas de seguimiento han sido un elemento enriquecedor en las adecuaciones que se han realizado al presente curso, dado que ha brindado información clave para poder atender las necesidades de los estudiantes y así brindar contenidos y actividades más atractivas que nutran el proceso de aprendizaje de los alumnos. La primera encuesta, como ya se mencionó al inicio de este trabajo, brindó un panorama del acceso tecnológico y de conectividad de los estudiantes, así como algunas de sus responsabilidades en sus hogares, adicionales a las académicas. El segundo instrumento se aplicó casi a la mitad del curso con la intención de conocer cómo ha sido el nivel de esfuerzo que les ha representado a los alumnos hasta el momento de la consulta y si han tenido alguna dificultad con el rendimiento de sus equipos de cómputo para ejecutar los diversos algoritmos solicitados en las actividades. La última encuesta se aplicó al final de curso para conocer la percepción de los estudiantes en cuanto al nivel
  • 110. 109 de conocimiento que tenían ellos antes del curso y cuál es el que ellos consideran que tienen al concluir el curso. Así también como saber su impresión de los materiales, contenidos, curso y seguimiento académico brindado durante el curso. h) Canales adicionales de comunicación Finalmente, para mantener una constante comunicación en estos tiempos de confinamiento se creó un grupo Whatsapp. Ello en busca de ampliar la interacción con los estudiantes, así como lograr una percepción de atención oportuna por esta vía. Este aspecto que se convierte en un reto importante, ya que impone el esfuerzo de responder siempre dentro de un plazo razonable. Asimismo, si no se cuenta con respuesta inmediata, es importante indicar acerca del tiempo estimado para tenerla, o bien del seguimiento que se le dará. Cabe resaltar, que los alumnos de manera proactiva, respondian algunas dudas planteadas por sus compañeros, incluso antes de que el profesor las atendiera, lo que motivó la interacción y apoyo al interior del grupo. 5 Conclusiones y prospectivas Los elementos antes mencionados han sido el resultado de una búsqueda constante por brindar alternativas que faciliten el proceso tanto de la enseñanza como el del aprendizaje de las tecnologías de alto rendimiento. Ello ha implicado investigación y capacitación constante por parte de su profesor, quien se motiva por integrar alternativas de aprendizaje innovadores en sus cursos. Por ello, al cuestionar a los estudiantes su perspectiva respecto de sus conocimientos adquiridos al finalizar el curso, la mayoría considera que se encuentra en un promedio satisfactorio a excelente. En cuanto la consulta de las habilidades y dedicación del profesor para atender sus inquietudes académicas considera que fue bueno a muy bueno. Así como de estar de acuerdo al considerar que los materiales, las instrucciones de las actividades, fueron pertinentes y claros. Aunado a ello, los estudiantes consideran como ventaja el que se permitiera la entrega extemporánea de tareas, aun cuando esto implicaba una pequeña penalización en la calificación del producto. Derivado de este fenómeno donde se identifica una larga curva de entregas con demora, se valora pilotear en el nuevo ciclo un ajuste al esquema para motivar la entrega sin grandes penalizaciones dentro del plazo de 21 días, de manera que permita una planeación y dedicación del trabajo del estudiante en un entorno que le demanda atender un empleo y responsabilidades familiares. Así también, los estudiantes consideraron que el aprender Big data fue muy interesante, así como las bases Hadoop. Cabe resaltar que la inciativa de integrar a la presente asignatura un curso de Coursera fue previo al convenio que actualmente se logró entre la Universidad de Guadalajara y dicha plataforma de aprendizaje. Aspecto que seguramente beneficiará a muchos académicos y estudiantes universitarios, dado que en dicha plataforma se ofrecen cursos provenientes de diversas universidades y que además les brinda la opción de tomar un curso al año con una certificación reconocida por Coursera. Finalmente mencionar que como elemento de mejora se considera el integrar más alternativas herramientas para el manejo masivo de datos en clusters en los próximos ciclos escolares. Referencias [1] Oferta académica del Centro Universitario de Tonalá. Universidad de Guadalajara. Disponible en http://www.cutonala.udg.mx/oferta-academica [2] Plan de Desarrollo Institucional 2019-2025. Universidad de Guadalajara. Disponible en https://www.udg.mx/sites/default/files/adjuntos/pdi_2019-2025.pdf [3] Organigrama del Centro Universitario de Tonalá. Universidad de Guadalajara. Disponible en http://www.cutonala.udg.mx/centro/organigrama [4] González, M. (01 Junio 2021). Ofrece Coursera más de seis mil cursos gratuitos. Gaceta UdeG. http://www.gaceta.udg.mx/ofrece-coursera-mas-de-seis-mil-cursos-gratuitos/
  • 111. 110 Uso de Realidad Aumentada como estrategia en el Aprendizaje de Historia de México en Secundaria Bryan Ricardo Berumen Espinoza 1 , Abraham López Nájera 2 , Cynthia Vanessa Esquivel Rivera 3 , Alejandra Mendoza Carreón 4 Universidad Autónoma de Ciudad Juárez - Campus Sur, Ave. José Jesús Macias Delgado 18100, Ciudad Universitaria, Cd. Juárez, Chih., 32000. México 1al150389@alumnos.uacj.mx, 2abraham.najera@uacj.mx, 3cyesquiv@uacj.mx, 4alemendo@uacj.mx Abstract. This work describes the development of an augmented reality mobile application for which the objective is to be a complement to the teaching and learning process of the History of Mexico class in second grade of middle school. The images that appear in the student's textbook are the targets that, when focused by the camera of the mobile device, activate the virtual content within the application. This mobile application developed through an autonomous architecture offers educational activities that enrich the content of the subject. The results of the evaluation applied to the students of the groups studied, indicated that those students who made use of the mobile application obtained a better grade average in the exam they presented. In addition, the ratings of this experimental group remained mostly within an average range, indicating that the mobile application standardizes the knowledge acquired. Keywords: Augmented Reality, Educational Software, History of Mexico, Basic Education, Mobile Application. 1 Introducción El aprendizaje de la historia requiere un nivel de pensamiento abstracto muy alto que puede ser complicado de alcanzar. Diversos autores afirman que hay una gran dificultad para comprender el tiempo y los hechos históricos dado que la noción que el ser humano puede tener de estos tiempos no supera las cuatro o cinco generaciones, limitando su percepción [1]. Por lo anterior se desarrolló una aplicación móvil de realidad aumentada, para ser utilizada como parte del proceso de enseñanza en la clase de Historia de México en segundo grado en la escuela Secundaria Técnica número 91, ya que se detectó que en el ciclo escolar 2018-2019 la materia con peor aprovechamiento escolar en los tres grados fue Historia. Mediante una metodología de desarrollo en cascada, se realizó la aplicación móvil que fue nombrada como “IOTOPIA”. La aplicación móvil está enfocada exclusivamente en el contenido temático del tercer trimestre de la materia de Historia de México para segundo grado de secundaria, según el programa educativo actual y funcionará únicamente bajo el sistema operativo de Android, como mínimo en su versión 4.1 “Jelly Bean”. Los marcadores serán tomados del libro Historia 2 de la colección Travesías en su primera edición bajo el sello editorial Ediciones Castillo, distribuido gratuitamente por el gobierno federal a los estudiantes de escuelas públicas, por lo que el uso de la aplicación se restringirá a ser complemento únicamente de este libro. 2 Estado del arte Seis millones y medio es la cantidad de alumnos, entre 12 y 15 años de edad, que estudian la Educación Secundaria en México [2], y todos estos cursan la materia de Historia en cuatro clases de 45 a 50 minutos a la semana. Como auxiliar en este aprendizaje, los alumnos reciben un libro de texto distribuido de manera gratuita por el gobierno y éste cumple con la función de ser su manual de
  • 112. 111 trabajo. El aprendizaje de la materia de Historia en segundo grado de secundaria, en el caso concreto de la Escuela Secundaria Técnica 91 se encuentra en decadencia, los resultados de las evaluaciones en la materia son cada vez menos satisfactorios, el interés de los alumnos hacia la asignatura es muy mínimo debido, entre otras cosas, a la poca aplicación que tienen estos conocimientos en su día a día, y los maestros encargados del programa siguen trabajando bajo el mismo método de enseñanza desde hace años. En esta era tecnológica, en la que los adolescentes pasan la mayor parte de su tiempo en dispositivos tecnológicos resulta muy impactante que se sigan utilizando métodos de enseñanza con base en monografías, planillas y relatos. Existen pocas aplicaciones que funcionen como auxiliares en el aprendizaje de Historia, a continuación, se enlistan algunos de los principales y más utilizados según su categoría. A. De tipo calendario Con este tipo de aplicaciones es posible tener un panorama anual de las efemérides y un rápido acceso a éstas, basado en la búsqueda de alguna fecha en específico. Ejemplos de estas aplicaciones son: Calendario histórico - Eventos y Concursos desarrollada por Alexandru C. Ene; Historia2 distribuida por UniCom Technology y Today.In.History desarrollada por Manuel Posadas concretamente para IOS. B. De actividades didácticas Mediante estos instrumentos de aprendizaje se busca que el usuario se divierta mientras intenta recordar y reafirma sus conocimientos en el área de Historia. Algunas de las aplicaciones que existen en el mercado de este tipo son: El Juego de Historia HD, disponible para descarga gratuita por Diana Uribe; History for Kids, un divertido juego didáctico y completamente audiovisual desarrollado por Planet Factory Interactive, y también Quiz de Historia del Mundo por Peaksel. C. De juegos y recursos audiovisuales Concretamente en el caso de Historia de México, se cuenta únicamente con dos aplicaciones móviles que, mediante juegos, videos y actividades captan la atención del usuario para mejorar su aprendizaje. La primera aplicación es Bandera de México, una aplicación dirigida a los estudiantes más pequeños quienes quieren aprender sobre la independencia de México. Por otro lado, la mejor opción hasta el momento, es Detectives MX, una aplicación desarrollada en 2015 por el Consejo Nacional para la Cultura y las Artes (CONACULTA). La posibilidad de reproducir hechos históricos del pasado es prácticamente nula y esto hace que la naturaleza de la materia como ciencia social exija el uso de pensamiento abstracto a un nivel muy alto, que para alumnos de secundaria puede resultar difícil de alcanzar, a diferencia de las ciencias exactas que mediante experimentos o cálculos permiten consultar y verificar los resultados. Otra situación complicada en el estudio de esta ciencia social radica en el aprendizaje de conceptos históricos, debido a que estos son términos que no se utilizan en el lenguaje cotidiano. Tal es el caso de palabras como: colonialismo, monarca, aristócrata, en las que los alumnos generalmente tienen una referencia de lo que significan estas palabras, pero lo desconocen en su totalidad [3]. Otro punto importante para la ejecución de este proyecto se encuentra en el valor cívico que esta aplicación móvil de tecnología de realidad aumentada puede aportar a los alumnos de secundaria. Es importante que los adolescentes se sientan atraídos e interesados en lo que a Historia refiere, dado que el estudio de nuestros antepasados permite saber de dónde parte todo, por qué es de alguna manera y hacía donde se dirige la sociedad. El correcto aprendizaje de la materia permitirá formar ciudadanos conscientes y responsables con su país.
  • 113. 112 3 Metodología usada El desarrollo de la aplicación se describe con base en cada una de las fases de desarrollo de la metodología en cascada, la cual ha sido elegida por su naturaleza secuencial que permite desarrollar un producto de software con base en el ciclo de vida de éste. 3.1 Requisitos Perspectiva del producto: la aplicación móvil de realidad aumentada fue desarrollada para ser utilizada como un complemento al libro de texto utilizado para la materia de Historia de México II en secundaria. Las imágenes del libro son los activadores del contenido didáctico en tercera dimensión, relacionados al tema que se está aprendiendo en la clase. Además, incluye un glosario para las palabras clave y/o difíciles de entender durante la lección. Especificaciones de requerimientos: los requerimientos esperados por los futuros usuarios de la aplicación móvil fueron recabados mediante entrevistas con el docente a cargo de la materia de Historia de México II y algunos estudiantes de la secundaria en cuestión. Estas especificaciones fueron propuestas en orden para implementar una nueva herramienta de enseñanza-aprendizaje sin alejarse del enfoque del modelo educativo actual de la Secretaría de Educación Pública. En la siguiente lista, se encuentran las especificaciones de la aplicación educativa esperadas por el maestro que imparte la materia, a quien se denominará cliente. 1. Las funciones de la aplicación no deben representar un distractor para los alumnos y tampoco permitirán que se pierda el enfoque de aprendizaje dentro del salón de clases. 2. Contenido audiovisual abundante y preferentemente animado. 3. Material sencillo y que no extienda en exceso el contenido temático de la materia o genere más dudas al respecto. 4. El uso de la aplicación móvil debe motivar el autoaprendizaje y la investigación en los alumnos. 5. Funciones intuitivas, cuyo uso no implique que el docente tenga que estar ayudando a los alumnos. Los alumnos, quienes son los usuarios objetivo del software, también externaron sus expectativas de la aplicación móvil y entre sus requerimientos coinciden en su mayoría en los siguientes puntos: 1. Creación de perfil o avatar. 2. Sistema de puntaje y/o actividades que permitan competir académicamente entre ellos mismos. 3. Diseño llamativo y con los gráficos suficientes para que no aparente ser una página web con exceso de información. 4. Contenido entretenido que haga interesante la materia. Funciones del producto: con base en las especificaciones esperadas por el cliente y los usuarios de la aplicación, así como también el objetivo principal del presente proyecto, fueron definidas las funciones del software que se enlistan a continuación.  Consulta de términos y conceptos específicos de la materia  Realización de actividades didácticas  Obtención de insignias al completar las actividades  Visualización de contenido multimedia  Consulta de marcadores activos de su libro de texto  Escáner de marcadores/imágenes Restricciones  El dispositivo en el que se instalará la aplicación móvil de realidad aumentada debe contar con cámara fotográfica funcional para detectar correctamente los marcadores y activar el contenido virtual.  La aplicación móvil funcionará únicamente bajo el sistema operativo de Android, como mínimo en su versión 4.1 “Jelly Bean”. No hay soporte para otros sistemas operativos móviles o versiones anteriores.
  • 114. 113  El espacio mínimo de almacenamiento necesario en el dispositivo móvil debe ser de 200 MB libres.  No es necesario contar con una conexión a internet para la funcionalidad de la aplicación, debido a su arquitectura.  Los marcadores serán tomados del libro Historia 2 de la colección Travesías en su primera edición, el cual es distribuido bajo el sello editorial Ediciones Castillo. Por lo que el uso de la aplicación se restringirá a ser complemento únicamente de este libro. 3.2 Diseño Arquitectura de la aplicación Para el desarrollo de la aplicación se utilizó una arquitectura de sistema autónomo (Figura 1) debido a que es el mecanismo ideal para sistemas de realidad aumentada en entornos pequeños y delimitados, haciendo uso de recursos propios de la aplicación sin necesidad de acceder a internet o a un servidor externo para visualizar su contenido [4]. La arquitectura interna de esta aplicación de realidad aumentada es conformada por los siguientes módulos: 1. Captura de escenario. 2. Tratamiento de imagen. 3. Reconocimiento de imagen. 4. Mapeo de patrones. 5. Fusión de contenido virtual y real. 6. Visualización. Figura 1. Sistema Autónomo de Realidad Aumentada Diagrama de contexto La Figura 2 ilustra de manera general el funcionamiento de la aplicación móvil de realidad aumentada. En ésta el maestro impartirá a los alumnos de manera tradicional su clase utilizando el libro de texto correspondiente hasta encontrarse con un marcador dentro de la lección. Los alumnos, mediante la aplicación, escanearán la imagen para que sobre ella se active el contenido virtual correspondiente que puede ser alguna actividad o material audiovisual.
  • 115. 114 Figura 2. Esquema de contexto de la aplicación móvil Diseño funcional Como puede observarse en la Figura 3 la aplicación móvil cuenta con cuatro secciones para provecho del estudiante. Su función principal es el escáner de imágenes o marcadores bajo la tecnología de realidad aumentada mostrando modelos 3D y actividades didácticas referentes al contenido temático. Incluye un glosario con la definición más concisa y entendible posible de las palabras que pudieran representar difíciles de entender dentro de las lecturas, para los estudiantes. Como apoyo, el catálogo de marcadores también forma parte de la aplicación como guía para el escaneo de imágenes. Por último, cuenta con una sección de información sobre la aplicación, incluyendo un tutorial de uso de la misma. Figura 3. Diagrama de actividades de la aplicación móvil Diseño de interfaz de la aplicación móvil El nombre elegido para la aplicación fue “Iotopía”, esta palabra griega (ἱστορία) es la raíz etimológica de la palabra “Historia”, que es un término que hace referencia al conocimiento adquirido mediante investigación o relato [5]. Una vez elegido el nombre y con ayuda de recursos gráficos gratuitos disponibles en www.freepik.com se diseñó el logotipo de la aplicación móvil para utilizarlo como ícono principal y dentro de la aplicación misma (ver Figura 4).
  • 116. 115 Figura 4. Logotipo de aplicación móvil de realidad aumentada Figura 5. Inicio de la aplicación móvil Los elementos gráficos son parte fundamental en el aprendizaje electrónico, eLearning. La saturación de elementos o el uso excesivo de un color puede generar factores psicológicos y emocionales que desfavorecen el proceso de enseñanza y aprendizaje [6]. El concepto gráfico de esta aplicación de realidad aumentada está basado en el minimalismo y la abstracción, buscando que el contenido sea lo más claro posible, eliminando cualquier distracción y manteniendo el enfoque en lo que es verdaderamente importante. El minimalismo, además de ser tendencia actual en el desarrollo web [7], debido a sus características requiere de menos recursos, carga más rápido el contenido y ofrece una mejor compatibilidad y adaptación a los diferentes tamaños de pantalla. 3.3 Implementación Desarrollo de base de datos para marcadores El portal de desarrollo Vuforia, entre sus funcionalidades ofrece a los desarrolladores la posibilidad de crear y gestionar bases de datos de marcadores, en línea para proyectos de realidad aumentada. Esta base de datos, una vez creada puede ser descargada en un formato compatible con otros entornos de desarrollo como Unity, además de que se le asocia de forma automática una licencia para su uso en aplicaciones web. Con base en el catálogo de marcadores creado, se procedió a subir las imágenes al administrador de marcadores de Vuforia. Posteriormente, mediante una escala de 1 a 5 estrellas, Vuforia hace saber al desarrollador qué nivel de seguridad hay de que tal marcador será detectado por la cámara web del dispositivo donde se ejecute la aplicación.
  • 117. 116 Programación de la aplicación móvil Como se ha mencionado previamente, el IDE seleccionado para programar la aplicación fue Unity, el cual cuenta con diversas herramientas especializadas concretamente en el desarrollo de aplicaciones móviles en dos y tres dimensiones. Este software se apoya de la programación en lenguaje C# para codificar las funciones más concretas y llevar a cabo actividades específicas dentro de la aplicación. Integración de componentes para realidad aumentada La función principal de la aplicación es la realización de actividades didácticas a través de la tecnología de realidad aumentada. Lograr esta tecnología requiere de la integración de diversos tipos de objetos, desde pantallas en dos dimensiones a modelos tridimensionales, así como también la implementación de la base de datos de marcadores que previamente se había creado. En este apartado del reporte, se describe la integración de cada componente según su clasificación. Implementación de modelos tridimensionales Una vez creados los objetos 3D que formarán parte de las actividades, su implementación resultó muy sencilla. Se importaron todos los modelos al proyecto y posteriormente fueron arrastrados al espacio geográfico en el que se localizarían, especificando para cuál marcador funcionarán exclusivamente. Dichos componentes se redimensionaron según la necesidad, todos fueron animados con el propósito de hacer más dinámica la aplicación y acomodados estratégicamente dentro del espacio de cada marcador para que pudiera apreciarse cada detalle dentro del dispositivo móvil como se observa en la Figura 6. Figura 6. Modelos tridimensionales implementados Implementación de elementos audiovisuales Los objetos multimedia son una parte esencial de la aplicación debido a su impacto en el aprendizaje de los estudiantes. Implementarlos como parte del contenido de realidad aumentada requirió de un código específico para cada elemento que indica a la aplicación en qué momento y bajo cuáles condiciones debe comenzar un video, parar una canción, reproducir algún sonido, etc. Estos elementos audiovisuales fueron añadidos junto con otros modelos 3D ofreciendo marcadores con distintos tipos de objetos virtuales en ellos como puede verse en la Figura 7 en donde no sólo hay imágenes, sino también modelos tridimensionales, cuadros de texto y botones en pantalla que al ser presionados reproducen un sonido.
  • 118. 117 Figura 7. Elementos multimedia implementados Implementación de actividades didácticas Las actividades didácticas dentro de la aplicación tienen el conjunto de la mayoría de los componentes descritos previamente, ya que implican la implementación de imágenes, sonidos, pantallas en dos dimensiones para resolver actividades, botones y modelos 3D, y la programación realizada fue dependiente de la naturaleza de cada actividad. Un segundo script se codificó con el propósito de permitir que las piezas de cada imagen pudieran tener movimiento y rotación mediante la pantalla táctil de los dispositivos móviles. El resultado de esta implementación puede verse en el ejemplo de la Figura 8. Figura 8. Rompecabezas de la aplicación Otro tipo de actividades dentro de la aplicación son los mapas interactivos. En estos mapas el estudiante puede ubicar espacios geográficos en escenarios particulares de las lecciones de la materia. Su codificación resultó más compleja debido a que además del código que se requiere para interactuar con las partes del mapa, es necesario un código que seccione los mapas según la necesidad y mediante herencia de objetos, se establece un padre que es el espacio seccionado dentro del mapa y se le asigna un hijo único, que es la ficha o elemento que corresponde a tal ubicación. Con los códigos utilizados para implementar mapas interactivos como el ejemplo que se muestra en la Figura 9, también fue posible adaptar la técnica de programación para lograr otras actividades didácticas tales como la ilustrada en la Figura 10, donde en tres niveles de dificultad el estudiante debe indicar el nombre correcto de la combinación entre dos castas de La Nueva España.
  • 119. 118 Figura 9. Mapa interactivo de la aplicación Figura 10. Actividad de relación 3.4 Pruebas Con el fin de verificar la aplicación y poder identificar posibles errores para su corrección, se llevaron a cabo algunas pruebas de funcionalidad que se describen a continuación. Durante todo el proceso de desarrollo y codificación se estuvieron realizando pequeñas pruebas unitarias de manera constante. El propósito de estas pruebas es detectar errores en cada módulo del software por separado. Estas pruebas se llevan a cabo después de la codificación de cada componente para comprobar que la función principal que se está programando cumpla con su objetivo, independientemente de los otros componentes [8]. Una vez concluida la aplicación, la prueba de humo fue muy importante debido a que, de manera general se revisó que la aplicación cumpliera con sus funciones principales. Este tipo de pruebas se llevan a cabo para verificar que las funciones más básicas del software se ejecuten correctamente [9]. Para validación de este proyecto se comprobó, haciendo uso de la aplicación, que el menú principal dirigía a las pantallas que correspondía, se verificó también que la cámara detectara las imágenes como marcadores y mostrara el contenido virtual, entre otras cuestiones. Se realizaron pruebas para la detección de marcadores para activar el contenido virtual correcto. Aunque esta función puede ser afectada por diversos factores como la calidad de la cámara del dispositivo móvil o la iluminación en el ambiente donde se escanea el marcador, fue importante verificar que sólo escaneaba los marcadores indicados y que en cada uno se activara únicamente el contenido virtual asignado a dicho marcador. Para lograr esta verificación, fueron muy útiles las pruebas de partición de equivalencias. En este tipo de pruebas de software se agrupan las entradas de datos del sistema según su similitud en el comportamiento esperado por la aplicación [10]. Para este caso particular, los datos de entrada son las imágenes o marcadores del libro de texto. Se definieron tres grupos de datos de entrada: imágenes que sí son marcador, imágenes que no son marcador e imágenes que no son un marcador, pero son muy parecidas a alguno. Para estas pruebas se obtuvo que para el tercer tipo de imágenes el 20% de las ocasiones que se escaneaba uno de ellos, aparecía la actividad que le correspondía al otro marcador. Para solucionarlo, se modificó el contraste de colores en cada imagen y se actualizó en la base de datos eliminando la confusión de patrones en el escáner de la aplicación.
  • 120. 119 4 Resultados Para verificar el impacto del uso de la aplicación se trabajó con dos grupos de estudiantes: un grupo controlado y otro experimental. Debido a la contingencia mundial causada por el virus COVID-19, la educación, durante el proceso de evaluación de la aplicación, se imparte a distancia mediante plataformas educativas en línea. El grupo controlado continuó trabajando, aunque en línea, de forma tradicional su clase de historia, mientras que el grupo experimental utilizó la aplicación móvil como complemento en su clase a distancia. A ambos grupos se les aplicó una evaluación sumativa; como instrumento de evaluación se aplicó un examen sobre los temas que abarca el contenido de la aplicación móvil de realidad aumentada, correspondiente al tercer trimestre de evaluación a nivel secundarias. El grupo experimental está conformado por un total de 41 alumnos, de los cuales 34 pudieron hacer uso de la aplicación móvil y presentar su examen, de éstos 34, 17 son hombres y 17 mujeres. Mientras que el grupo controlado lo componen 39 alumnos y 31 de ellos realizaron el examen, de éstos 31, 14 son hombres y 17 mujeres. Ambos grupos están compuestos por estudiantes de 13 y 14 años que se encuentran cursando el segundo grado de educación secundaria. La Tabla 1 presenta el resumen de los resultados de la evaluación sumativa. Grupo Alumnos Aprobados Reprobados Promedio Grupal Índice de reprobación Desviación Estándar Controlado 31 27 4 7.225 0.1290 1.82 Experimental 34 29 5 8.176 0.1470 2.01 Tabla 1. Resultados de evaluación sumativa Como puede observarse, el grupo que hizo uso de la aplicación móvil de realidad aumentada obtuvo en sus calificaciones un promedio de 8.17, lo cual representa un aprovechamiento escolar mejor que el 7.22 del grupo controlado que no la utilizó. Sin embargo, también se encontró que el índice de reprobación es más alto por dos centésimas en el grupo experimental. La Figura 11 y la Figura 12 muestran la desviación estándar que se presentó en las calificaciones de cada uno de los grupos. Aunque la desviación es similar para ambos grupos de estudio, en el caso del grupo experimental fue posible observar que el 86% de las calificaciones de los alumnos se encuentran dentro del rango estándar, diferente al 65% del grupo controlado. Figura 11. Desviación estándar de grupo controlado
  • 121. 120 Figura 12. Desviación estándar de grupo experimental Después de realizar el examen, los estudiantes respondieron una encuesta de utilidad y usabilidad para evaluar cualitativamente la aplicación. En esta encuesta se les plantearon preguntas para conocer su opinión respecto a aspectos como la utilidad de la información proporcionada, el tiempo de uso que se le dio, la complejidad en el manejo y navegación, la apariencia, entre otras cuestiones. De manera general, la aplicación fue evaluada por los usuarios finales con un promedio de 9.3 en una escala del uno al diez; a la mayoría les gustaría utilizar este tipo de software educativo en otras materias. El 15% usó poco la aplicación, mientras que el 62% pasó mucho tiempo usándola (ver Figura 13). Figura 13. Encuesta sobre la utilización de la aplicación Los estudiantes indicaron que lo que más les gustó de esta aplicación móvil fue el uso de juegos como medio de aprendizaje ya que disfrutaron de la diversión y el entretenimiento que les generó. También expresaron que les pareció interesante la tecnología de realidad aumentada, predominando en sus comentarios que les parecía muy impresionante ver como aparecía en el dispositivo móvil un personaje en 3D invitándolos a realizar alguna actividad. Sin embargo, les gustaría que hubiera más juegos y que tuvieran la posibilidad de modificar la apariencia del personaje principal que aparece en todas las actividades de la aplicación. En la Figura 14 se observa que el 88% de los estudiantes considera que la aplicación les ayudó para resolver de mejor manera su examen debido a que les aportó mucho aprendizaje, y el 82% considera que
  • 122. 121 aprendió mucho con la aplicación. Figura 14. Encuestas sobre utilidad de la aplicación y aprendizaje adquirido En cuanto a la apariencia, la aplicación Iotopía fue evaluada con un promedio de 8.82. En la Figura 15 se observa la opinión de los usuarios y su experiencia en la visualización de contenido; el 32% de ellos aseguran que los colores utilizados pudieron ser mejores y 65% indican que no tuvieron problema alguno para ver todo el contenido de la aplicación en su dispositivo móvil. Figura 15. Encuestas referentes a la apariencia y visualización de contenido En cuanto a la dificultad de uso (Figura 16), un 76% indica que la navegación dentro de la aplicación móvil les pareció sencilla y sólo el 15% de los usuarios necesitó ayuda de un adulto o de su maestro para utilizarla correctamente. Figura 16. Encuestas sobre facilidad de uso y navegación Dados los resultados obtenidos de la evaluación, es posible determinar que el uso de la aplicación móvil mejoró el promedio de aprovechamiento académico, pero también se obtuvo un índice de reprobación más alto en contraste con el grupo controlado que no utilizó la aplicación. Aunque el proceso de aprendizaje es muy complejo y pudiera verse afectado por muchos factores externos,
  • 123. 122 resulta interesante que, en la encuesta de utilidad el 15% de los estudiantes indicó que utilizó muy poco tiempo la aplicación móvil; es posible que, si los estudiantes hubieran interactuado más tiempo con el contenido de la aplicación de realidad aumentada, seguramente su evaluación hubiese sido más favorable, como la del resto de sus compañeros que respondieron haber utilizado más tiempo el recurso tecnológico. Por su parte, el análisis de la desviación estándar obtenida, aunque se mantuvo muy similar en ambos grupos, las calificaciones que se encuentran fuera del rango de dispersión son mayores en el grupo que no utilizó la aplicación móvil, es decir, en este grupo son más los alumnos cuyo rendimiento académico se encuentra fuera del estándar del grupo con base en su promedio. De esta información es posible interpretar que el uso de la aplicación móvil ayudó a estandarizar los conocimientos adquiridos en el grupo experimental, logrando que la mayoría de los estudiantes comprendieran en un 86% la misma información. A diferencia del grupo controlado en el que 35% de los estudiantes obtuvieron calificaciones que se quedaron por debajo del rango de desviación o incluso muy por arriba de éste, demostrando una diferencia notoria en el aprendizaje adquirido. 5 Conclusiones Se desarrolló con éxito una aplicación móvil bajo la tecnología de realidad aumentada como una opción complementaria en el proceso de enseñanza y aprendizaje de la materia de Historia de México en segundo grado de secundaria. Los resultados obtenidos, indicaron que los estudiantes entre 13 y 14 años de edad se sienten sumamente atraídos a las aplicaciones móviles cuya principal actividad es el entretenimiento a través de juegos y contenido multimedia. En cuestiones de diseño, los gustos son muy variados y aunque no se encontró un estándar en este sentido, la apariencia de la aplicación desarrollada le resultó agradable al 88% de la población muestra. Mediante el examen aplicado como evaluación al terminar el periodo de uso de la aplicación fue posible descubrir que, conforme a lo esperado, el grupo que hizo uso de la aplicación como parte de su proceso de enseñanza presentó un promedio de calificaciones más elevado en comparación del grupo que no la utilizó. Así como también se encontró que la aplicación permitió mantener un estándar en el nivel de aprendizaje de la mayoría de los estudiantes. La implementación de este tipo de proyectos en el ámbito educativo permite a los docentes miembros de las diferentes academias observar muy de cerca los beneficios que la tecnología puede aportar en los procesos de enseñanza y aprendizaje. En el caso particular de la institución estudiada en este proyecto, se estableció el primer contacto con la tecnología como instrumento de aprendizaje dentro de las aulas y tuvo un impacto positivo en el aprovechamiento escolar. Referencias [1] A. Wilschut, Images of Time. The Role of an Historical Consciousness of Time in Learning History, Estados Unidos de América: Information Age Publishing, 2012. [2] Secretaría de Educación Pública, «Sistema Interactivo de Consulta de Estadística Educativa,» 2018. [En línea]. Available: https://www.planeacion.sep.gob.mx/principalescifras/. [Último acceso: 29 agosto 2019]. [3] J. Prats, «Dificultades para la enseñanza de la historia en la educación secundaria,» Teoría y Didáctica de las Ciencias Sociales, nº 005, pp. 71-98, 2000. [4] H. Marquina Cruz y A. E. España Estrada, Diseño y propuesta de aplicación de realidad aumentada como potenciador de experiencia de la ruta arqueológica de El Salvador basado en el modelo de contexto y marcadores, El Salvador: Universidad de Don Bosco, 2014. [5] F. Coelho, «Diccionario de dudas,» [En línea]. Available: https://www.diccionariodedudas.com/etimologia-de- historia/. [Último acceso: 18 abril 2020]. [6] J. Canté Garcia, «Psicologia del color aplicada a los cursos virtuales para mejorar el nivel de aprendizaje en los estudiantes,» Gráfica, vol. 05, nº 09, pp. 51-56, 2017.
  • 124. 123 [7] R. Vazquez, «Forbes,» Forbes Mexico, 19 septiembre 2019. [En línea]. Available: https://www.forbes.com.mx/cuatro- novedosas-tendencias-en-el-diseno-web/. [Último acceso: 15 febrero 2020]. [8] J. Tuya, I. Ramos Roman y J. Dolado Cosín, Técnicas Cuantitativas para la Gestión en la Ingeniería del Software., España: Netbiblo, 2007. [9] C. Vargas, «Tipos de pruebas funcionales para el aseguramiento de la calidad,» Trycore, [En línea]. Available: https://trycore.co/transformacion-digital/tipos-de-pruebas-funcionales/. [Último acceso: 02 mayo 2020]. [10] G. Terrera, «Pruebas de caja negra y un enfoque práctico,» Testing Baires, 26 febrero 2017. [En línea]. Available: https://testingbaires.com/2017/02/26/pruebas-caja-negra-enfoque-practico/. [Último acceso: 02 mayo 2020].
  • 125. 124 Tendencias, impacto de COVID-19 y pronósticos de crecimiento de la realidad mixta en la educación. Adalberto Iriarte-Solis 1 , Maria Palmira Gonzalez-Villegas 2 y Victor Javier Torres Covarrubias 3 1 Universidad Autónoma de Nayarit adalberto.iriarte@uan.edu.mx 2 Universidad Autónoma de Nayarit palmira.gonzalez@uan.edu.mx 3 Universidad Autónoma de Nayarit javier@uan.edu.mx Resumen. Actualmente, el mundo está completamente absorto en el uso de estas dos tecnologías, tanto la Realidad Aumentada (RA) y Realidad Virtual (RV), y hace poco ha surgido una fusión increíble de estas dos, que es una realidad extendida, conocida como Realidad Mixta (RM). Las aplicaciones basadas en RM se encuentran dentro de las diez tecnologías mejor clasificadas del año 2020. Sus propiedades más significativas son que se integra en tiempo real, que posee una diversidad de capas de información digital, que es interactiva y que, mediante su utilización, enriquece o altera la información. Se muestran ejemplos de implementaciones de la RM en la educación en las áreas de medicina, química y turismo. En la lucha contra COVID-19, su principal beneficio ha sido el siguiente: (1) mayor comodidad; (2) mejor comprensión y comunicación; (3) mayor seguridad; y (4) ahorro de recursos médicos. El mercado a nivel global fue valorado en 376,1 millones de dólares en 2020 y se espera que alcance un valor de 3,915.6 millones para 2026 con una tasa compuesta anual esperada del 41,8% durante el período de pronóstico de 2021 a 2026. Como se puede revisar en los casos analizados, la contribución de esta innovación en la praxis educativa es de gran magnitud, debido a que se obtienen resultados que impactan en contextos profesionales y ayudan en áreas relacionadas con la aplicación de estos. Palabras claves: Realidad mixta, educación, realidad virtual, tendencias tecnológicas, covid-19. Abstract. Actually the world is completely open actually in the use of these two technologies, both Augmented Reality (AR) and Virtual Reality (VR), and recently an incredible fusion of these two has emerged, which is an extended reality, known as Mixed Reality (MR). MR-based applications are among the ten best ranked technologies of the year 2020. Their most significant properties are that they are integrated in real time, that they have a diversity of layers of digital information, that it is interactive and that, through its use , enriches or alters the information. Examples of implementations of MRI in education in the areas of medicine, chemistry and tourism are shown. In the fight against COVID-19, its main benefit has been the following: (1) greater comfort; (2) better understanding and communication; (3) increased security; and (4) saving medical resources. The global market was valued at $ 376.1 million in 2020 and is expected to reach a value of $ 3,915.6 million by 2026 with an expected CAGR of 41.8% during the forecast period from 2021 to 2026. As It can be reviewed in the cases analyzed, the contribution of this innovation in educational practice is of great magnitude, due to the fact that results are obtained that impact professional contexts and help in areas related to their application. Keywords: Mixed reality, education, virtual reality, technology trends, covid-19. 1 Introducción El desarrollo y evolución de las nuevas tecnologías ha tenido impactos significativos en el campo de la educación. El uso de los conceptos de Realidad Aumentada (RA) y Realidad Virtual (RV) es cada vez más común como se puede apreciar en el prestigioso Reporte Horizon, publicado por EDUCAUSE, donde describen las tendencias educativas globales más relevantes. Este informe señaló que ambas tecnologías serán componentes clave en el futuro de la educación, creciendo exponencialmente durante los próximos años [1]. Actualmente, el mundo está completamente absorto en el uso de estas dos tecnologías, tanto la RA como la VR. Y hace poco ha surgido una fusión increíble de estas dos, que es una realidad extendida,
  • 126. 125 conocida como Realidad Mixta (RM). Es una intersección perfecta entre ambas y combina lo mejor de ambos mundos virtuales. Las aplicaciones basadas en RM se encuentran dentro de las diez tecnologías mejor clasificadas del año 2020 [2]. Las propiedades más significativas de la RM es que se integra en tiempo real, que posee una diversidad de capas de información digital, que es interactiva y que, mediante su utilización, enriquece o altera la información. Afirmando lo mencionado, es importante resaltar que también funge como una estrategia que permite aplicar el conocimiento teórico mediante una praxis que coadyuve al mejoramiento de las destrezas y habilidades. Resulta interesante conocer que no hay un perfil académico en específico para utilizarla; dentro del campo de la lingüística, las matemáticas, ingenierías y otras se puede adecuar mediante una planeación o bien, un diseño instruccional, la forma de abordar los contenidos, estrategias, actividades, recursos y formas de evaluación por medio de esta innovación educativa [3]. Fig. 1. Componentes de la realidad mixta. 2 Tendencias de la Realidad Mixta La implementación de la RM en el contexto de México, se encuentra el caso de la Universidad Nacional Autónoma de México; donde se utilizó con éxito un innovador sistema de lentes que permiten visualizar un holograma del paciente para realizar la primera cirugía con RM en México por parte del programa de Alta Especialidad para Médicos Especialistas. Dicha aplicación médica se realizó en diciembre de 2020, con la dirección del Hospital Avicenne AP-HP, en Francia, y en ella participaron estudiantes universitarios operando el equipo a través de los dispositivos para la interacción y aplicación del conocimiento en anatomía y demás áreas relacionadas. La experiencia obtenida dio como resultado a la invitación de Evolutis, empresa dedicada a la fabricación de implantes para hombro, a fin de trabajar en un proyecto con Microsoft para cirugía holográfica que promovía un entrenamiento para especialistas de 13 países. Estas imágenes holográficas pueden incluir datos de planificación quirúrgica y reconstrucciones en 3D de la anatomía de un paciente que
  • 127. 126 se pueden utilizar para ayudar al cirujano a lograr una alta precisión. Esta técnica podría usarse en el futuro para reparar fracturas de escafoides: fijación percutánea del escafoides asistida por RM. La fijación percutánea del escafoides asistida por RM puede tener el potencial de ayudar a los cirujanos a lograr una colocación óptima de la guía con la capacidad de reducir el tiempo quirúrgico y la exposición a la radiación, como se muestra en la figura 2 [4]. Fig. 2. Cirugía hecha por Michell Ruiz en la que estuvo en comunicación con otros especialistas internacionales. Fuente: https://www.gaceta.unam.mx/hacen-primera-cirugia-holografica-en-mexico/ En el área de Química, se cuenta con el software Narupa que permite a grupos de investigadores cohabitar simultáneamente en entornos de simulación en tiempo real con estructuras moleculares a un nivel atómico de precisión. Este programa es de código abierto (GPL v3.0) y permite que dos participantes puedan manipular la simulación en tiempo real de moléculas del tipo C60 por medio de los controles inalámbricos. El nombre "Narupa" combina el prefijo "nano" y el sufijo "ar¯upa" (una palabra sánscrita que describe objetos no físicos y no materiales), que representa el intento de interactuar con objetos simulados a nanoescala con realidad virtual, como se muestra en la figura 3. Narupa contiene empaquetados una serie de seis ejemplos estables, que los participantes pueden inspeccionar para guiarlos en la configuración de sus propias simulaciones interactivas. Se espera que en futuros trabajos sea posible entrenar modelos mediante aprendizaje automático (learning machine), para que sean más rápidos que los métodos de la mecánica cuántica y que reproduzcan superficies de energía de la mecánica cuántica, lo que permite la simulación interactiva de sistemas aún más grandes, con el fin de construir conjuntos de datos para entrenar máquinas para que aprendan funciones energéticas potenciales [5].
  • 128. 127 Fig.3. En la imagen se muestra la interacción de un Péptido 17-ALA atado en un nudo usando el software Narupa. Fuente https://vimeo.com/244670465 Por otra parte, el Laboratorio de Química de Realidad Mixta desarrollado por el equipo de la Anyang Normal University en China, es un sistema que proporciona una nueva experiencia educativa en la que los estudiantes pueden simular un experimento de química en un laboratorio virtual e interactuar con objetos utilizando visores Oculus y dispositivos de control manual. El sistema propuesto tiene como objetivo familiarizar a los estudiantes con los procedimientos experimentales y el conocimiento de seguridad antes de realizar experimentos reales. Se basa en la combustión de cinta de magnesio, que es un experimento simple que proporciona una introducción a los estudiantes sobre los experimentos de química. Se utilizan una lámpara de alcohol, vasos de precipitados, tiras de magnesio, entre otros elementos, todo sobre una mesa virtual. Dicho experimento no puede reemplazar completamente al experimento real. Sin embargo, los estudiantes pueden familiarizarse con el proceso experimental de antemano y evitar o reducir la probabilidad de errores causados por un proceso desconocido. Lo más importante es que los estudiantes no deben preocuparse por la seguridad de los reactivos y el equipo de laboratorio, y el uso excesivo de estos. Por lo tanto, la práctica repetida con el proceso experimental antes del experimento real resultó de gran beneficio para los experimentos reales en el futuro [6]. El equipo de Schell Games ha producido una experiencia de aprendizaje lúdico de laboratorio llamada HoloLAB Champions, para un sistema de realidad virtual totalmente inmersivo. La historia del juego es la de una estación espacial varada y el jugador debe realizar reacciones químicas específicas correctamente, por ejemplo, la síntesis de una sustancia fluorescente, para sobrevivir. Además de hacer que este juego esté disponible para escuelas y universidades, el equipo de Schell Games ha lanzado este juego de química en el mercado de juegos comerciales. Jugar con productos químicos utilizando HoloLAB Champions, es divertido y completamente seguro, asegura su creador Jesse Schell [7]. Otro de los contextos educativos que han decidido optar por trabajar la RM a través del área de Turismo, ha sido el Instituto Politécnico Nacional (IPN), con el objetivo conocer de manera ágil y precisa los atractivos que ofrece el Centro Histórico, tales como museos, edificios, hoteles, restaurantes o cafeterías, mediante la interacción del entorno físico con elementos digitales. Estudiantes de esta institución educativa combinaron la RV y la RA, en una aplicación de asistencia turística para la Ciudad de México. El prototipo, que se realizó forma parte del proyecto “Sistema de realidad mixta para la asistencia turística en la Ciudad de México”, el cual consta de unos lentes ajustables con un acrílico traslúcido negro y un espejo de polietileno que le permite reflejar, a través del visor, los íconos digitales de los lugares seleccionados que aparecen en el celular, en tiempo real y sin distorsiones. Este prototipo ofrece una experiencia holística, integrando todos los servicios de determinado lugar, ofrecer la lista de sitios para visitar y su valoración, así como la revisión de las rutas de acceso, esta aplicación de realidad mixta puede utilizarse mediante servicios de Google, el inicio de sesión que puede tener una o varias cuentas, cada una con un perfil de usuario, mediante el que se podrán elegir los diferentes lugares que se quieran visualizar y la distancia que se desea abarcar, a través de un control Bluetooth [8]. 3 Impacto del COVID-19 En la primera línea de la lucha contra la COVID-19, en el Hospital Wuhan Union en China, un grupo de medicina inteligente aprovechó con éxito las ventajas de la tecnología de RM para lidiar con COVID-19 utilizando dispositivos HoloLens de Microsoft. El restablecimiento de pulmón se presenta de una manera tridimensional más vívida mediante el etiquetado con diferentes colores y luego presentado por HoloLens para los médicos. Se dividen los tejidos normales y enfermos, y
  • 129. 128 durante la presentación, los trabajadores médicos pueden ampliar, encoger y rotar el modelo y también hacer perspectiva a través de gestos de figuras en el aire. La observación, medición y evaluación del nivel de enfermedad también podría realizarse sin contacto para evitar la posibilidad de transmisión por contacto y cortar la ruta de transmisión, como se muestra en la figura 4. Fig.4. Aplicación de RM ante la COVID-19 [9]. En general, la tecnología de RM para la atención médica inteligente proporciona una ayuda eficaz para la lucha contra COVID-19. El principal beneficio ha sido el siguiente: (1) mayor comodidad; (2) mejor comprensión y comunicación; (3) mayor seguridad; y (4) ahorro de recursos médicos. Con la ayuda de la tecnología de RM, los médicos pueden obtener una comprensión más clara del coronavirus a nivel científico y mundial. La RM puede ser un método oportuno para ayudar a los trabajadores clínicos con una mejor prevención de la epidemia y una mejor gestión de la salud pública. También podría aplicarse la RM con inteligencia artificial y tecnología de comunicación 5G para reconocer y presentar de forma inteligente las lesiones y la consulta remota junto con otros escenarios [9]. De esta forma, la COVID-19 ha tenido un impacto positivo en la demanda de hardware para RA, RV, y MR , debido a que las empresas de todo el mundo están tratando de encontrar formas de lograr que sus equipos internos y geográficamente más amplios se comuniquen, colaboren y encuentren un camino a seguir durante la crisis. Incluso después de que finalice la pandemia, es probable que el cambio de comportamiento que ha provocado dure un período de tiempo considerablemente más largo. Se espera que las personas permanezcan socialmente distantes, pero con el uso de tecnologías como la RM estarán prácticamente cerca. Estas plataformas y tecnologías pueden permitir principalmente que múltiples empresas funcionen y crezcan independientemente de los desafíos que plantea el distanciamiento social [10]. 4 Crecimiento de la Realidad Mixta La tendencia del mercado de RM está siendo impulsada por inversiones en dispositivos de hardware, plataformas y ecosistemas de software. Algunas inversiones se centran principalmente en reemplazar teclados y pantallas planas con paradigmas completamente nuevos para la colaboración y la comunicación. Se espera que el segmento norteamericano del mercado de RM crezca
  • 130. 129 significativamente durante el período del 2021 a 2026, registrando una tasa compuesta anual del 83.3%, debido a la presencia de un gran número de proveedores que también están haciendo inversiones considerables en innovación de mercado y asociaciones estratégicas. El mercado a nivel global fue valorado en 376,1 millones de dólares en 2020 y se espera que alcance un valor de 3,915.6 millones para 2026 con una tasa compuesta anual esperada del 41,8% durante el período de pronóstico de 2021 a 2026 [11]. De esta forma, se espera que Estados Unidos sea uno de los mercados de RM más innovadores. La mayoría de las empresas que avanzan en esta tecnología tienen su sede en Estados Unidos. Un ejemplo es Microsoft y su proyecto Hololens que comenzó desde el año 2010, y le tomó seis años para su desarrollo, lanzado la edición para desarrolladores en el primer trimestre de 2016. En noviembre de 2018, Microsoft recibió 480 millones de dólares por el ejército de Estados Unidos para el suministro de 2,500 auriculares HoloLens, que se utilizaron con un enfoque principal en la innovación militar y en el entrenamiento digital del ejército. Actualmente, trabajan en la versión 2 de sus lentes, con lo que piensan revolucionar el mercado [12]. Desde la adquisición de Oculus por parte de Facebook en 2014 por 2.000 millones de dólares, la RM se ha convertido en una parte central de cómo Facebook imagina públicamente su futuro, Facebook ha enmarcado a Oculus principalmente como una red social. En los últimos años se han realizado más esfuerzos para refinar la funcionalidad social de la RM en las aplicaciones de Facebook, Instagram y SnapChat al agregar filtros muy divertidos, y mas recientemente es el lanzamiento de la aplicación Horizon Workrooms, en Agosto del 2021, exclusivo para sus gafas Oculus Quest 2 [13]. Otro ejemplo es el gigante de aplicaciones de chat de juegos, Discord, quien en junio de 2021 adquirió la startup de realidad aumentada Ubiquity6. Dicha plataforma está orientada al consumidor para alojar contenido de RM, y la adquisición por parte de Discord puede atraer a una audiencia más amplia a sus productos. La industria del automóvil también avanza hacia el negocio de la RM. Muchas empresas de automóviles están utilizando tecnologías de inteligencia artificial, junto con la RM (a través de pantallas Head-up), para marcar su presencia en el mercado. Los fabricantes incluidos son Audi, BMW, Mercedes-Benz, Chevrolet, Toyota y Volvo, entre otros, ya que han incluido características relevantes como el entrenamiento de sus empleados, la colaboración basada en procesos remotos, la asistencia en el camino y la detección de objetos [14]. El uso de esta información permite a los investigadores, desarrolladores y usuarios de entornos de realidad mixta, seleccionar y tomar decisiones informadas sobre las mejores herramientas y entornos para sus respectivas aplicaciones, al tiempo que transmiten información con mayor claridad y precisión. El desarrollo y la aplicación de marcadores más complejos contribuiría en gran medida a lograr mayores avances en la extensión del conocimiento actual y en el desarrollo de aplicaciones para impactar positivamente el entretenimiento, los negocios y la salud, mientras se minimizan los costos y se maximizan los beneficios [11]. 5 Conclusiones La situación de contingencia sanitaria por la que cursamos actualmente nos invita a replantear nuestra forma de enseñar. Estamos frente a un reto en el que tenemos que adaptarnos hacia una nueva normalidad en la cual el uso de la tecnología digital es cada vez más frecuente para la innovación y transformación de los procesos de enseñanza aprendizaje. Como se puede revisar en los casos analizados, la contribución de esta innovación en la praxis educativa es de gran magnitud, debido a que se obtienen resultados que impactan en contextos profesionales y ayudan en áreas relacionadas
  • 131. 130 con la aplicación de estos. Sin embargo, aún existen varios problemas y limitaciones principales, incluidos los mareos y la falta de orientación que pueden provocar su uso excesivo, la mayoría de las aplicaciones tienen las instrucciones únicamente en el idioma nativo, principalmente en inglés, y la poca accesibilidad de dispositivos capaces de reproducir estas tecnologías. Además, la mayoría de las instituciones educativas carecen de instalaciones adecuadas de laboratorios virtuales debido a los problemas financieros y la falta de equipo disponible. Referencias [1] REBAQUE, Begoña Rivas; BARRIO, Felipe Gértrudix; GÉRTRUDIX-BARRIO, Manuel. Análisis sistemático sobre el uso de la Realidad Aumentada en Educación Infantil. Edutec. Revista Electrónica De Tecnología Educativa, 2021, no 76, p. 53-73. [2] FLAVIÁN, Carlos; IBÁÑEZ-SÁNCHEZ, Sergio; ORÚS, Carlos. The impact of virtual, augmented and mixed reality technologies on the customer experience. Journal of business research, 2019, 100, 547–560. [3] CABERO, J.; BARROSO, J.; LLORENTE, C. La realidad aumentada en la enseñanza universitaria. REDU. Revista de docencia universitaria, 2019, 17, 1, 105-118. [4] GREGORY, Thomas; HURST, Simon A.; MOSLEMI, Aymane. Mixed Reality Assisted Percutaneous Scaphoid Fixation: A Proposed New Surgical Technique. Techniques in Hand & Upper Extremity Surgery, 2021. [5] O’CONNOR, Michael B., et al. Interactive molecular dynamics in virtual reality from quantum chemistry to drug binding: An open-source multi-person framework. The Journal of chemical physics, 2019, vol. 150, no 22, p. 220901. [6] DUAN, Xiaoyun, et al. Mixed Reality System for Virtual Chemistry Lab. KSII Transactions on Internet and Information Systems (TIIS), 2020, vol. 14, no 4, p. 1673-1688. [7] WINTER, Julia. Playing with chemistry. Nature Reviews Chemistry, 2018, vol. 2, no 5, p. 4-5. [8] IPN utiliza realidad mixta para promover turismo en la CDMX. El Capitalino MX,por redacción, 4 de marzo del 2021, acceso el 1 de septiembre del 2021. https://elcapitalino.mx/capital/ipn-utiliza-realidad-mixta-para-promover-turismo- en-la-cdmx/ [9] LIU, Pengran, et al. Mixed reality assists the fight against COVID-19. Intelligent Medicine, 2021. [10] BALA, Laksha, et al. A remote access mixed reality teaching ward round. The Clinical Teacher, 2021. [11] LIANG, Jiafang. Mixing Worlds: Current Trends in Integrating the Past and Present through Augmented and Mixed Reality. Advances in Archaeological Practice, 2021, vol. 9, no 3, p. 250-256. [12] VIDAL-BALEA, Aida, et al. Analysis, design and practical validation of an augmented reality teaching system based on microsoft HoloLens 2 and edge computing. En Engineering Proceedings. Multidisciplinary Digital Publishing Institute, 2020. p. 52. [13] EGLISTON, Ben; CARTER, Marcus. Oculus imaginaries: The promises and perils of Facebook’s virtual reality. New Media & Society, 2020, p. 1461444820960411. [14] DENGLER, Franz; EICHLER, Bruno; DAGLI, Abdülkerim. Acceleration of ECU-Development by Using Connected Mixed Reality Environments. 2021.
  • 133. 132 Propuesta de APP como herramienta de enseñanza para niños con el trastorno del espectro autista Francisco Preciado Álvarez1 , Elide Gonzalez-Veyra2 , Juan Ramón Flores Avalos 3 , Fabian Pérez Ojeda4 , Arquímedes Arcega Ponce5 1, 2, 3, 4, 5 Universidad de Colima, Facultad de Contabilidad y Administración campus Tecomán, Km 40.1 autopista Colima-Manzanillo, La Estación, Tecomán, Colima, 28930. México 1 fpreciado0@ucol.mx, 2 egonzalez@ucol.mx, 3 jflores@ucol.mx, 4 fojeda@ucol.mx, 5 pime@ucol.mx Resumen. En la actualidad las tecnologías de información y comunicación (TIC) crean y agilizan métodos para el aprendizaje de niños con atenciones especiales por ello, el presente trabajo aborda el diseño de una aplicación móvil como herramienta de apoyo para niños con el Trastorno del Espectro Autista (TEA) la cual tiene como finalidad ser empleada por cualquier individuo que interactúe con niños con TEA. Con este fin, se emplea la metodología Mobile-D para el proceso de diseño de la aplicación, también se aplicó un instrumento de recolección de datos basado en el modelo de aceptación de nuevas tecnologías (TAM) para conocer la utilidad que esta pueda tener esta, dicho instrumento fue aplicado a personas que se dedican a brincar atención a niños con el TEA. Como resultado se obtienen el diseño de interfaz, bases de datos y funcionalidad de la App móvil, así como la percepción positiva de las personas a quienes se les aplicó el instrumento. Palabras clave: educación, aplicaciones móviles, autismo 1 Introducción El Trastorno del Espectro Autista se caracteriza por la afectación en los niños de sus habilidades sociales, cognitivas y emocionales, lo que resulta en la dependencia a los padres de familia o tutores la cual es una lucha constante, por el tiempo que debe ser invertido y el aspecto económico que debe asumirse. Actividades como comer, asearse y hasta comunicar sus necesidades son un reto para todos, pues se batalla a diario con acciones diarias que si se tuvieran mecanizadas o pudieran hacer ellos mismos sin ayuda ahorraría en tiempo, labor y sobre todo originaría en la independencia de los chicos. Existen hasta la fecha muchas herramientas de las cuales pueden hacer uso tanto las familias como los profesionales de educación, logoterapia, psicología, etc., pero la situación es que esas herramientas son en su mayoría actividades o pictogramas (dibujos que expresan un concepto) impresas, lo cual significa la limitante de no poder continuar con las terapias en cualquier lugar o momento. Estas herramientas, además de representar un desembolso económico que a la larga puede ser grande, también es muy tardado y tedioso, pues se hacen adecuaciones a los materiales constantemente ya que cada individuo es diferente y no todo el material se ajusta a sus necesidades. Para el desarrollo del presente estudio, se analizaron trabajos como el de García de la Universidad de la Sierra Sur, en dicho trabajo se hizo una propuesta para desarrollar una aplicación móvil interactiva que pudiera servir de apoyo en el aprendizaje de los niños de educación básica. Analizaron una serie de aplicaciones móviles y web, de las cuales sustrajeron los elementos que consideraron serían claves en el proceso de enseñanza aprendizaje en un contexto de educación básica, como resultado obtuvieron una propuesta viable de elementos que deben ser integrados en la aplicación móvil para que pueda ser utilizada en educación básica. Del anterior trabajo, se recoge el listado de aplicaciones que analizaron en su estudio, pues del mismo, algunas pueden ser aplicadas a niños con el espectro autista [1]. Otro trabajo es el realizado por Alarcón Quispe de la Universidad Mayor de San Andrés, quien desarrolló un prototipo de una aplicación móvil de realidad aumentada para el tratamiento de niños autistas. Este proyecto se realizó en base a la metodología de desarrollo Mobile-D la cual brinda agilidad, y está dividida en fases y proporciona algunas técnicas para el óptimo desarrollo de la aplicación móvil, como resultado de este proyecto se obtuvo una aplicación de realidad aumentada
  • 134. 133 en dispositivos móviles para el tratamiento de niños autistas. Del anterior trabajo, se recupera información relacionada a la metodología Mobile-D la cual puede ser de gran utilidad para la elaboración del funcionamiento de una aplicación [2]. Finalmente, Yong Varela de la Universidad Autónoma de Tamaulipas, realizó un trabajo de investigación denominado “Modelo de aceptación tecnológica (TAM) para determinar los efectos de las dimensiones de cultura nacional en la aceptación de las TIC” en el cual se plantean variables externas que influyen en el modelo y así determinar si hay una correlación significativa en cuanto al uso y aceptación de las TIC, como resultado obtuvo una investigación viable sobre la importancia de la región en la cual se aplique el modelo TAM, además de la influencia confirmada de las variables “Individualismo/Colectivismo” y “Distancia Jerárquica”. Del anterior trabajo, se recuperan las características que se le adjuntan al Modelo de Aceptación Tecnológica, la cual ayudará a determinar si la aplicación será aceptada por el usuario final [3]. Se plantea como objetivo general el diseñar una aplicación móvil como herramienta para la enseñanza en niños con el Trastorno del Espectro Autista que sea identificada como útil por personas mayores de edad que brinden atención a estos. 2 Estado del arte El Instituto Nacional De La Salud Mental (NIMH por su sigla en inglés) menciona que “El autismo es un grupo de trastornos del desarrollo cerebral, a los que se llama colectivamente el trastorno del espectro autista TEA. El término “espectro” se refiere la amplia gama de síntomas, habilidades y niveles de deterioro o discapacidad que pueden tener los niños con el TEA. Algunos niños padecen un deterioro leve causado por sus síntomas, mientras que otros están gravemente discapacitados” [4]. En lo que respecta a la presencia del autismo en México, se realizó un estudio en León, Guanajuato financiado por la organización Autism Speaks, el cual arrojó un estimado de 400,000 niños con autismo en el país, es decir 1 de cada 115. Lo cual para el país representa un reto en lo que a Salud Pública se refiere [5]. No obstante, el número creciente de casos, Gómez Cotero, especialista del Centro Interdisciplinario de Ciencias de la Salud (CICS) del Instituto Politécnico Nacional, alertó sobre la insuficiencia ante la creciente demanda de instituciones que brindan atención a niños con autismo [6]. Mencionó en entrevista de Excélsior: “Necesitamos contar con un mayor número de profesionales que coadyuven al diagnóstico temprano y a brindar terapia a los niños con esta afección”. Con la intención de mitigar este problema el CICS en conjunto con la Clínica Mexicana de Autismo y Alteraciones del Desarrollo, A. C. (CLIMA) diseñaron un diplomado único en México, con un enfoque en mejorar la rehabilitación psicosocial, este diplomado va dirigido a psicólogos titulados [7]. El Gobierno Federal ha realizado esfuerzos en coordinación con algunos estados de la república con la finalidad de crear conciencia y educar a la población en torno al espectro autista, tal es el caso de la reciente aprobación por parte del congreso estatal de Baja California, donde solicitan a la Secretaría de Educación y Bienestar Social (SEBS) de Baja California para la publicación de libros para el trato de personas autistas, lo que indica el interés por atender a este sector de la población [8]. La búsqueda de nuevos tratamientos continua, en la actualidad se busca el desarrollo de soluciones apoyándose en las tecnologías de información y comunicación (TIC), sobre todo haciendo uso de los dispositivos móviles, que, por su penetración y accesibilidad, pueden encontrarse en gran cantidad de familias. De acuerdo a datos recogidos por el Instituto Nacional de Estadística y Geografía (INEGI) y del Instituto Federal de Telecomunicaciones (IFT), existen 18.3 millones de hogares en México con conexión a internet, 74.3 millones de usuarios de internet de seis años o más, lo que representa el 65.8% de la población [9]. Existen hasta la fecha 99 instituciones a lo largo del país dedicadas a la atención de niños, jóvenes y adultos con autismo [10]. Todas las aplicaciones para niños con TEA se centran en diferentes aspectos afectados, ya sean cognitivos, de comunicación, independencia, socialización, etcétera. todo esto para mejorar la calidad
  • 135. 134 de vida del usuario. En Uruguay se lanzó recientemente una App que permite, a través de una base de datos que se irá alimentando con el tiempo por el usuario, reconocer el porqué de una crisis o “berrinche” de los niños dentro del espectro autista [11]. Un pueblo en España, llamado Renedo de Esgueva se convirtió en el primer “Picto-Pueblo” ya que colocaron pictogramas en sus calles y establecimientos más representativos, a manera de concientización y de romper un poco la barrera de comunicación con las personas con autismo Los pictogramas son dibujos sencillos que representan un concepto, fungen como herramienta de apoyo para la fácil interpretación de estos conceptos, ya sean verbos, objetos, personas, etc. [12]. 3 Diseño metodológico El presente trabajo de investigación parte de un enfoque deductivo, es de tipo transversal, no experimental, mixta (cualitativa y cuantitativa), exploratoria, aplicada y documental. Para fines del presente trabajo se pretende una vez elaborada la propuesta de diseño de la App aplicar el instrumento conocido como TAM (Modelo de Aceptación de Tecnología) de manera parcial, dicho instrumento será aplicado a personas mayores de edad que brinden atención a niños con el Trastorno del Espectro Autista [13]. Se aplicará la técnica del muestreo discrecional, seleccionando un total de 10 sujetos a los cuales se les aplicará de manera parcial el instrumento denominado TAM (Modelo de Aceptación de Tecnología). Figura 17.Modelo de Aceptación Tecnológica Se determinó que la muestra fuera de 10 sujetos debido a que es el número de personas que se tiene contacto y conoce por parte de los investigadores y con la finalidad de no abordar a personas desconocidas ya que el tema del autismo infantil es tema delicado. El presente trabajo será evaluado bajo el siguiente instrumento de recolección de datos basado en modelo TAM para dicha recolección se quedará hasta la etapa de utilidad de uso. La metodología de diseño de app que sirve como fundamento es la denominada Mobil-D, la cual se divide en cinco fases y en el presente trabajo se desarrollará hasta la tercera de estas: exploración, inicialización, producción, estabilización y prueba y reparación del sistema. 4 Resultados Este apartado se divide en dos, los resultados obtenidos de la implementación de la metodología Mobil-D y el segundo, el análisis de los datos recuperado por el instrumento adaptado del modelo TAM que permita medir la utilidad percibida. 4.1 Implementación de Mobil-D Se propone una aplicación móvil a base de secuencias usando videos cortos. Estas secuencias serán de actividades concurrentes en la vida diaria del niño como pueden ser lavarse los dientes, ir al baño o cambiarse de ropa, la aplicación también contará con la opción de ser alimentada con contenido propio por el padre, tutor
  • 136. 135 o profesional que atiende al niño. Con la finalidad de estandarizar conceptos, se definen algunos de los términos comunes dentro del desarrollo de la presente metodología. Grupo: funciona de manera similar a una lista de reproducción, agrupa dos o más secuencias. Secuencia: es un grupo de pasos Paso: es un video corto donde se muestra al usuario final lo que debe de realizar. El establecimiento de los interesados en la aplicación tiene la finalidad de identificar grupos de actores necesarios a lo largo del proyecto por su participación en las tareas que les corresponden, entre ellos se identifica el Usuario Final: actor principal al niño o niña que se encuentra dentro del Trastorno del Espectro Autista, el cual hará uso de la aplicación como herramienta de apoyo en sus actividades diarias, su edad oscila entre los 5 y 10 años; El Usuario Auxiliar: actor secundario al padre, tutor o profesional que haga uso de la aplicación para beneficio de una niña o niño que se encuentre dentro del Trastorno del Espectro Autista; y finalmente, el Grupo de Desarrollo o los autores del presente trabajo de investigación serán los encargados de diseñar la aplicación. En la figura 2 se expresan los requerimientos del usuario auxiliar, se elaboró un diagrama para cada uno de los usuarios empleando UML y sus diagramas de casos de uso. Figura 2. Diagrama de casos de uso del Usuario Auxiliar El usuario auxiliar, (figura 3) se le asignaron cinco casos de uso, el denominado “ejecutar secuencia”, “crear secuencia”, “gestionar grupo”, “editar secuencia” y “navegar pasos de secuencia. Cada uno de los casos de uso presentados en los tres diagramas, fue desarrollado en una tabla de secuencia, lo que permite tener un mayor entendimiento del funcionamiento y su operatibidad en el sistema como un todo, en la tabla 1 se observa un ejemplo de esta secuencia. Nombre del caso de uso Crear secuencia Descripción: Permite al usuario auxiliar añadir nuevas secuencias. Actores: Usuario auxiliar Precondiciones: Seleccionar un grupo Flujo normal 1.- El actor entra a la aplicación 2.- El actor visualiza interfaz con todas sus secuencias y da click en añadir nueva 3.- El actor introduce nombre de la nueva secuencia 4.- El actor graba los pasos de la nueva secuencia 5.- El actor sube los videos a la aplicación y da guardar 6.- La aplicación reproduce la nueva secuencia
  • 137. 136 Flujo alternativo 7.- La aplicación despliega la leyenda “su dispositivo no cuenta con espacio suficiente” al dar guardar, si esto sucede se deberá liberar espacio. 8.- El actor da clic en “rehacer paso” si alguno no cumplió con sus expectativas. Post condición: El actor puede grabar el paso de nuevo Tabla 1. Flujo del caso de uso “crear secuencia” Se procedió a diseñar la base de datos iniciando por su diseño empleando el modelo entidad relación y posteriormente el modelo relacional, en la figura 3 se observa el diagrama del modelo entidad relación. Figura 3. Diagrama entidad relación de la base de datos 4.2 Medición de la utilidad percibida Se aplicó de manera parcial el instrumento de recolección de datos bajo el modelo TAM a 10 sujetos mayores de edad que brindan atención a niños con el Trastorno del Espectro Autista. Tabla 2. Resultados obtenidos sobre la utilidad percibida De acuerdo a lo observado en la tabla 2, los resultados denotan en teoría la utilidad de la aplicación móvil por parte de los usuarios auxiliares como herramienta de enseñanza para niños con autismo.
  • 138. 137 5 Conclusiones y trabajo futuro Se cumple el objetivo planteado en el presente trabajo, aplicando la metodología de desarrollo de aplicación móviles Mobil-D hasta la fase tres, se concreta el diseño de la herramienta móvil para la enseñanza de niños con autismo. Y con apoyo del modelo TAM se identifica la utilidad percibida de dicha herramienta, obteniendo como resultado que las personas que se dedican a la atención de niños con autismo la encuentran útil. El trabajo de investigación se delimitó a diseñar la aplicación a base de secuencias y que a partir de este punto fuera evaluado como útil o no por personas mayores de edad que brindan atención a niños con autismo, de tal manera que su opinión permita avalar su beneficio tanto para los niños – el usuario final – como para aquellos que los atienden – usuario auxiliar. Teniendo en cuenta la complejidad del TEA y las nuevas tendencias tecnologías en el área de salud se recomienda a los futuros investigadores mantener una actualización frecuente de información útil que permita mejorar la expuesta en esta investigación y que abone a un siguiente paso con la finalidad de que el diseño funcional de esta app este a la altura de las nuevas tendencias tecnológicas. El presente trabajo de investigación tiene como finalidad realizar la etapa de diseño de una app para niños con TEA, lo cual como siguiente paso con relación a esta investigación es realizar la etapa de producción que permita que el diseño tenga continuidad con la investigación previa para concluir con este proyecto en todas sus fases requeridas. La opinión de la población acerca de la aplicación resultó positiva por lo que se sugiere continuar con este proyecto siguiendo la metodología Mobile-D en su fase de producción de tal manera que la aplicación pueda ser desarrollada. Referencias [1] García, S. Uso de las TIC en el Trastorno de Espectro Autista. España, 2016. https://dialnet.unirioja.es/servlet/articulo?codigo=6038316 [2] Alarcón, A. Realidad Aumentada En Dispositivos Móviles Para El Tratamiento De Niños Autistas, 2016. https://repositorio.umsa.bo/handle/123456789/7684 [3] Young, V. Modelo de aceptación tecnológica (TAM) para determinar los efectos de las dimensiones de cultura nacional en la aceptación de las TIC. Revista internacional de Ciencias Sociales y Humanidades, vol. XIV (1), 2004. [4] NIMH. Guía para padres sobre el trastorno del Espectro Autista, 2013. http://www.nimh.nih.gov/health/publications/espanol/gu-a-para-padres-sobre-el-trastorno-del-espectro- autista/index.shtml [5] Gaceta UNAM. Autismo, reto para la salud pública y para la inclusión, 2019. https://www.gaceta.unam.mx/autismo- reto-para-la-salud-publica-y-para-la-inclusion/ [6] IPN. En México uno de cada 115 niños nace con autismo. InstitutoPolitécnicoNacional, 2019. https://www.ipn.mx/imageninstitucional/comunicados/ver-comunicado.html?y=2019&n=90 [7] Excelsior. Nace con autismo 1 de cada 115 niños en México. México: Periódico Excélsior versión digital, 2019. https://www.excelsior.com.mx/nacional/nace-con-autismo-1-de-cada-115-ninos-en-mexico/1305316 [8] Uniradio. Solicitarán a SEBS publicar libros para el trato de personas autista, 2019. https://www.unimexicali.com/noticias/bajacalifornia/582380/solicitaran-a-sebs-publicar-libros-para-el-trato-de-personas- autistas.html [9] INEGI. Comunicado de Prensa 179/19, Instituto Nacional de Estadística y Geografía, 2019. https://www.inegi.org.mx/contenidos/saladeprensa/boletines/2019/OtrTemEcon/ENDUTIH_2018.pdf [10] Teletón. Directorio de instituciones dedicadas al autismo a nivel nacional. https://s3.amazonaws.com/teletonorgmx/botones/Directorio%20Nacional%20de%20Instituciones%20- %20Autismo%20Enero%202018.pdf [11] Vanguardia. Berrinche de los niños autistas, en la palma de la mano gracias a una app. México, 2019. https://vanguardia.com.mx/articulo/berrinche-de-los-ninos-autistas-en-la-palma-de-la-mano-gracias-una-app [12] Serrador, M. Renedo, el primer «Picto-Pueblo» que integra. España, 2017. https://www.abc.es/espana/castilla- leon/abci-renedo-primer-picto-pueblo-integra-201703310920_noticia.html [13] Davis, F. D., Bagozzi, R.P. & Warshaw, Paul R. User Acceptance of Computer Technology: A Comparison of Two Theoretical Models. Management Science, 35(8), 982-1003, 1989.
  • 139. 138
  • 140. 139 Aplicación Web de apoyo a la enseñanza del Álgebra utilizando el Modelo de Áreas basada en el paradigma de componentes de software Rubén Peredo Valderrama 1 Iván Peredo Valderrama 2 1 Escuela Superior de Cómputo del Instituto Politécnico Nacional, Av. Juan de Dios Bátiz S/N esquina con Miguel Othón de Mendizábal, México, D.F., 07738. México rperedo@ipn.mx 2 Universidad Politécnica de Querétaro, Carretera Estatal 420 S/N el Rosario el Marqués, México, Querétaro, CP. 76240. ivan.peredo@upq.edu.mx Resumen. La presente propuesta presenta una aplicación Web de apoyo a la enseñanza del algebra utilizando el modelo de áreas basada en el paradigma de componentes de software, para desarrollar prácticas en línea bajo el paradigma de Educación Basada en Web (Web-Based Education, WBE por sus siglas en inglés), basada en estándares del W3C. La propuesta utiliza componentes de software para la composición de la aplicación y el manejo de multimedios. La aplicación Web está compuesta de varios módulos que posibilita desarrollar diferentes tipos de materiales educativos didácticos de apoyo a la enseñanza del álgebra, construyendo rectángulos de diferentes tamaños relacionando la multiplicación con el área, promoviendo la multiplicación y la factorización, además de hacer un análisis de datos de las evaluaciones de los estudiantes utilizando Python y Pandas. La propuesta utiliza patrones de diseño de software, destacando dos: composición, y Modelo-Vista-Controlador (Model-View-Controller, MVC por sus siglas en inglés). La propuesta posibilita a profesores y estudiantes llevar a cabo prácticas en línea, reduciendo la elevada complejidad técnica, permitiendo crear materiales educativos didácticos reutilizables de alta calidad para el apoyo bajo el paradigma de WBE. Palabras clave: Álgebra, Componentes, Educación Basada en Web, W3C. 1 Introducción Hoy es prácticamente imposible imaginar alguna actividad social, cultural o productiva que no haya sido modificada por las Tecnologías de la Información y la Comunicación (Information and Communication Technologies, TIC por sus siglas en inglés). La educación no ha sido la excepción en mayor o menor medida, pero ha dejado todavía por delante una promesa de cambio que no termina de concretarse, pero poco a poco esto está cambiando. Las TIC pueden ser vistas como una solución creativa a un problema dado, teniendo diferentes vistas dependiendo del actor relacionado con la educación. Reflexionemos en el rol del docente, las concepciones sobre el proceso de enseñanza/aprendizaje, el papel pasivo o activo de los estudiantes, la elección de contenidos, etc. El debate no debe ser sobre el papel de las TIC en la educación. El debate más bien debe ser con el lugar que se le atribuye la escuela en el cumplimiento de su función social establecida, analizando las TIC en el marco de su función social. Existen argumentos a favor y en contra de las TIC, debemos adoptar una postura mesurada al respecto. Las TIC afortunadamente o desafortunadamente están con nosotros, para bien o para mal. La preocupación por lo que se puede perder, debe subsanarse por una constante intención de aprovechar las nuevas oportunidades. La enseñanza de cualquier materia ha sufrido cambios en muchos sentidos. La disponibilidad de las TIC provoca la necesidad de plantearse nuevamente preguntas fundamentales, independientemente de los acuerdos o desacuerdos resultantes será necesario el aprendizaje de algún tipo de conocimiento de estos cambios para comprender la situación actual. El mundo se ha vuelto un lugar menos previsible, requiriendo de un tipo de formación más amplia. Existe un consenso positivo internacional en extender los tiempos de formación general de todos los ciudadanos, independientemente de su posible futuro laboral o académico. Esto ha cambiado sustancialmente las condiciones base para la construcción de la escuela promedio. La enseñanza cualquier materia deben tener sentido en sí misma, en otras palabras, la selección de contenidos de una materia debe tomar en cuenta todas aquellas nociones de la disciplina que pudieran ser consideradas relevantes para un ciudadano. Hace ya varias décadas múltiples
  • 141. 140 investigadores del área psicología del aprendizaje pusieron de manifiesto que los alumnos no llegaban a aprender cosas que habían sido planteadas como propósitos en la respectiva currícula. Esto puede ser interpretado de muchas maneras, La evidencia ofrecida por estos investigadores apunta a cierta dificultad intrínseca de incompatibilidad entre el modo en que los seres humanos aprendemos, y como la ciencia pretende enseñárnoslo. Las metas educativas de las diferentes áreas escolares, se pueden agrupar de manera general en dos grandes propósitos. El primero corresponde con enseñanzas de tipo pragmático, y el segundo con enseñanza de tipo epistémica. La finalidad de la enseñanza pragmática es de lograr resultados eficientes. Mientras que la meta del orden sistémico se enfoca en transformar la mente del que aprende. Como se puede ver los tipos de acciones para lograr una u otra no son iguales. Suele escucharse que las escuelas ya no son la fuente de novedades informativas que eran hace unas décadas, y la información ahora está al alcance de la mano de todos gracias a las TIC. Pero la función epistémica pretende cambios en la estructura del pensamiento en los estudiantes, esto no se ve alterada por la disponibilidad de la información. Es importante destacar las nuevas oportunidades con la integración de las TIC en enseñanza. Es importante generar aportes que permitan el proceso de integración de las TIC a la práctica docente. Este proceso puede nutrirse de múltiples propuestas. Siendo el objetivo que el docente pueda hacer uso de herramientas digitales para vincular sus prácticas con las TIC. Es importante mencionar que las TIC ofrecen recursos para la enseñanza de las diversas áreas de estudio como: fuentes de información, recursos, prácticas, etc. Todavía hay propuestas que pueden hacer aportes significativos. En la Web existen una gran cantidad de simulaciones interactivas con la finalidad de apoyar la investigación de un concepto o de un experimento simulado. Las simulaciones deben ser vistas como un aporte y no como una suplantación de la práctica real, no debe pensarse en que la simulación suplante al laboratorio [1]. Razonar matemáticamente consiste en la habilidad de interpretar y resolver situaciones problémicas, conocer las propiedades de las operaciones, analizar los fenómenos y convertirlos al lenguaje de las matemáticas. Pólya piensa que el profesor debe estimular en los alumnos la curiosidad, propiciando un ambiente que propicie la investigación y el descubrimiento. Tratando de enseñar a pensar matemáticamente, abstrayendo y aplicando ideas matemáticas en un amplio rango de situaciones. La enseñabilidad es una característica derivada de la epistemología de cada ciencia referida a su forma particular de expresión, contenido y fundamentos teóricos y experimentales, que caracterizan la manera de abordar sus problemas específicos, y condiciona el modo específico cómo esta debe enseñarse. En ese sentido, Kieran y Filloy consideran que el aprendizaje del álgebra requiere un cambio en el pensamiento del estudiante de las situaciones numéricas concretas a proposiciones más generales sobre números y operaciones [2]. El álgebra es una de las ramas más fundamentales e importantes de las matemáticas; es considerada de gran beneficio en la vida cotidiana de cualquier persona, por esta razón es importante que los estudiantes de diferentes niveles conozcan y practiquen álgebra, estos conocimientos serán de gran utilidad a lo largo de toda su formación profesional, de ahí su gran importancia [3]. Pero es importante mencionar que históricamente las matemáticas es una de las materias más difíciles para los estudiantes de todos los niveles. Por lo expuesto anteriormente y ante la pandemia de COVID que vivimos, se ha puesto en evidencia la necesidad de nuevas herramientas innovadoras de apoyo, para el aprendizaje en general, y en este caso en particular al álgebra. Las actividades tienen rol esencial en la construcción del conocimiento, cada materia debe tener actividades concretas, estas actividades deben ser conjuntadas con recursos didácticos desde los tradicionales hasta los digitales. La herramienta busca apoyar la enseñanza del álgebra construyendo rectángulos de diferentes tamaños relacionando la multiplicación con el área, promoviendo la multiplicación y la factorización, además de hacer un análisis de los datos de las evaluaciones de los estudiantes utilizando Python y Pandas.
  • 142. 141 2 Estado del Arte Hay diferentes propuestas de apoyo para la enseñanza del álgebra, cada una tiene sus ventajas y desventajas, enumeraremos en seguida algunas de las más importantes. El desarrollo de herramientas informáticas ha crecido a lo largo de los años, poniendo ante los profesores universitarios un gran conjunto de recursos para crear nuevos modelos educativos, que pueden ser utilizados de forma complementaria a la educación tradicional. La herramienta PSeInt es un software extensamente usado en múltiples universidades en América Latina, de apoyo en el proceso de enseñanza/aprendizaje del álgebra lineal, mostrando la propuesta el empleo de la herramienta, siendo un recurso de apoyo para la programación, a través de sencillo e intuitivo pseudolenguaje basado en español, complementado con un editor de diagramas de flujo, permitiendo centrarse en los conceptos fundamentales, proporcionando un entorno de trabajo con ayuda y recursos didácticos [4]. La enseñanza del álgebra discreta de forma tradicional ocasiona que esta se vea como una materia monótona y pasiva, la propuesta utiliza recursos didácticos digitales innovadores en la forma de un software educativo, la incorporación de los recursos digitales en el proceso enseñanza/aprendizaje tuvo los siguientes beneficios en la enseñanza de la materia: mejora del rendimiento, incidencia positiva en la autoestima personal del estudiante, promover el aprendizaje significativo, y resultando en una herramienta útil complementario para el docente [5]. La propuesta desarrollo un entorno virtual de aprendizaje con contenidos digitales básicos de álgebra para la materia de matemáticas II, teniendo la propuesta pretest y postest, probándola con estudiantes del primer semestre de la carrera de Ingeniería Petrolera de la Universidad Autónoma del Carmen entre agosto y diciembre del 2017, la muestra fue dividida en dos grupos, el primero con 24 estudiantes para el grupo experimental, y el segundo con 41 estudiantes en el grupo de control. Los pretest fueron pruebas objetivas con reactivos de opción múltiple, con la finalidad de que ambos grupos fueran homogéneos. El entorno virtual de aprendizaje tomo como modelo el diseño instruccional de la estructura Análisis, Diseño, Desarrollo, Implantación y Evaluación (ADDIE). Posteriormente a la implementación y utilización del entorno virtual se aplicó una prueba postest, similar a la primera prueba antes mencionada, resultando fue que los grupos dejaron de ser homogéneos, donde el grupo experimental obtuvo mejores resultados. La comparación entre ambos grupos permitió establecer que el grupo experimental obtuvo un mejor rendimiento académico que el grupo de control. Los estudiantes que utilizaron el entorno virtual de aprendizaje declararon una opinión positiva respecto a este, y mencionaron que el entorno virtual los había apoyado en su aprendizaje [6]. La última propuesta que revisaremos fue la denominada PhET, siendo una iniciativa de la Universidad de Colorado Boulder sin ánimo de lucro, con recursos educativos explorables, con el objetivo de mejorar la manera de enseñar y aprender la ciencia, por medio de las simulaciones, tocando diferentes áreas como: física, química, matemáticas, ciencias de la tierra, y biología. Los simuladores han sido probados y evaluados exhaustivamente para certificar su confianza. Las pruebas abarcaron entrevistas con estudiante hasta observaciones en el salón de clase. Las simulaciones utilizan principalmente la tecnología como base HTML 5. PhET afirma que las simulaciones son completamente de código abierto. Los recursos están disponibles para los estudiantes y maestros [7]. En el área de matemáticas PhET tiene infinidad de simuladores, y específicamente en el área de álgebra tenemos la siguiente: Área Model Algebra, siendo esta nuestra referencia principal para nuestra propuesta [8], las simulaciones son muy interesantes e interactivas, donde el estudiante puede explorarlos y poner a prueba sus saberes con ejercicios prácticos. La presente propuesta muestra el desarrollo de una aplicación Web especializada de apoyo para la enseñanza del álgebra, utilizando el modelo de áreas construyendo rectángulos de múltiples tamaños, relacionando la multiplicación con el área, promoviendo la multiplicación y la factorización, basada en el modelo de componentes, este paradigma lo hemos trabajado a lo largo de los años, y hemos tratado de mejorar en cada una de las propuestas. La propuesta busca servir como una aplicación de apoyo, que aproveche las ventajas que ofrece la Internet y la Web. La propuesta codifica patrones de diseño de software para manejar el cambio en el proyecto de software a lo largo de su vida, facilitando el mantenimiento, la construcción de la Interfaz de Usuario (User Interface, UI por sus siglas en
  • 143. 142 inglés) del Front-end se basa en el paradigma de componentes de software, posibilitándonos construir componentes reutilizables, mejorando la reutilización. La propuesta tiene como uno de los objetivos disminuir la sofisticación técnica para crear contenidos educativos multimedia interactivos, yendo más allá de solo leer, escuchar o ver un video, al permitir practicar a los estudiantes sus saberes con experiencias prácticas, enriqueciendo sus experiencias. 3 Metodología usada La propuesta en el Front-end utiliza componentes de software, estos ofrecen tres ventajas importantes: dominar la complejidad, controlar el cambio, y reutilización [9]. Es importante definir lo que es un componente de software, referenciaremos para esta definición la de uno de los expertos del área Clemens Szyperski: “un componente de software es una unidad de composición con interfaces contractualmente definidas y dependencias de contexto explicitas. Un componente de software puede ser desplegado independientemente y es sujeto de composición por terceras partes” [10], los componentes fueron nuestras unidades de construcción de la propuesta. La propuesta para su implementación utilizó la librería React.js para construir el Front-end, codificando los componentes con ECMAScript 6, la cual representa la mayor actualización de los fundamentos de JavaScript en la historia del lenguaje, dando sus primeros pasos hacia un lenguaje de Programación Orientada a Objetos (Object Oriented Programming, OOP por sus siglas en inglés), incorporando finalmente una manera para declarar clases, instancias, constructores, métodos estáticos, etc., los puntos sobresalientes de la librería React.js son: gratuita, código libre, JavaScript 100 porciento, funciona con diferentes tipos de Back- end, construcción de UI, modelo de componentes, Modelo Objeto Documento (Documento Object Model, DOM por sus siglas en inglés) Virtual, React Native para el desarrollo de aplicaciones móviles, entre otras [11], pero lamentablemente este no es totalmente soportado por la mayoría de los navegadores Web actuales, ya que ECMAScript 5 (JavaScript 1.8.5) es la versión soportada por la mayoría de los navegadores Web actualmente. Para resolver la problemática entre versiones mencionada anteriormente se empleó Webpack, este es un empaquetador de recursos para aplicaciones JavaScript modernas. Este conjunta archivos JavaScript para utilizarlos en el navegador Web, además de transformar, conjuntar o empaquetar recursos. Webpack fue utilizado para compilar módulos de código de JavaScript. Webpack nos permitió la transformación del código de la versión ECMAScript 6 a la versión ECMAScript 5 para tener compatibilidad al 100% con navegadores Web actuales, esto se llevó a cabo por medio del cargador llamado babel-loader para transformar el código de los componentes de propuesta, codificados en ECMAScript 6 a código ECMAScript 5, dado que considerables navegadores Web actuales no soportan totalmente al 100% ECMAScript 6, mientras que ECMAScript 5 es soportado ampliamente por los navegadores Web actuales. Después de la instalación de Webpack, se hizo uso de la interfaz de la línea de comandos (Command Line Interface, CLI por sus siglas en inglés). Webpack nos permitió manejar las dependencias de contexto, transpilador y empaquetamiento de la propuesta. Para inyectar el código JavaScript de los componentes React generados por el transpilador en las páginas en el Lenguaje de Marcado de Híper Texto (Hyper Text Markup Language, HTML por sus siglas en inglés), por medio del plug- in html-webpack-plugin. Los componentes de la propuesta se mapearon mediante el id del contenedor respectivo en la página HTML, y de ReactDOM.render() para llevar a cabo la renderización, el método render lleva dos argumentos, el primero es el elemento que se busca renderizar, en nuestro caso los componentes de la propuesta, el segundo es el contenedor donde el elemento se renderizara. La Figura 1 presenta el diagrama de componentes UML mostrando el Front-end del profesor en la propuesta. El Front-end está completamente implementado utilizando componentes de software con React.js. El primer componente es el de Login, que se utiliza para validar al profesor en la propuesta, este componente tiene la dependencia de contexto del componente Crear, Leer, Actualizar y Borrar (Create, Read, Update and Delete, CRUD por sus siglas en inglés), ya que una vez validado el profesor puede utilizar el componente CRUD para crear los contenidos/evaluaciones de la propuesta, este tiene cuatro dependencias de contexto con los siguientes componentes: Borrar, Modificar, Leer y Crear; estos tienen las dependencias de contexto con Material-UI [12] y React Bootstrap 4 [13], estos son componentes de terceros que podemos utilizamos para la construcción de la UI de la propuesta. Material-UI es una librería con varios componentes adicionales para crear la UI de nuestra propuesta, lo que nos ha permitido economizar tiempo, al no tener que escribir los componentes desde cero, una idea fundamental del modelo de componentes de software, maximizando la reutilización, en nuestro caso particular hemos utilizado los componentes: Dialog, DialogActions, DialogTitle, y Grid. React Bootstrap 4. Mientras que React Bootstrap 4 es una librería de componentes que favorecen la composición y control, esta
  • 144. 143 no tiene dependencias de contexto con JQuery [14], en nuestro caso específico se han utilizado los componentes: Modal, ModalHeader y ModalBody. Posteriormente en la parte inferior de la Figura 1 se presenta el contenido que contiene los contenidos/evaluaciones de la propuesta, este está compuesto de tres componentes principales: Contenedor, Contenido y Navegación. El componente Contenedor sirve como recipiente de los otros dos componentes, donde el componente de Contenido es el más complejo, este componente tiene una relación de agregación con los componentes: Multimedia, ResultBox1, TableBox1, ResultBox2, y TableBox2, el componente Multimedia a su vez tiene tres dependencias de contexto con los componentes: Imagen_HTML, Audio_HTML, y ReactPlayer, con la finalidad de desplegar multimedios en la propuesta. Los otros componentes ResultBox1, TableBox1, ResultBox2, y TableBox2 son variaciones para construir los contenidos/evaluaciones de la propuesta, los TableBox en general está compuestos de los siguientes componentes: boxHeght1, boxHeght2, lineWidth, lineHeight1, y lineHeight2; los ResultBox en general está compuestos de los siguientes componentes: Teclado, Revisar y Timer. Los componentes TableBox nos sirvieron para representar el modelo de áreas dinámico de la propuesta, mientras que los componentes ResultBox sirve para evaluar las respuestas de los estudiantes, compuesto con componentes como el componente Teclado, siendo este un componente de apoyo para el correcto llenado de la evaluación, el componente Revisar que es un botón para evaluar la pregunta, y finalmente el componente Timer que es un temporizador, encargado de tomar el tiempo de los estudiantes. La Figura 2 presenta la arquitectura integrando el Front-end y Back-end de la propuesta, el patrón Modelo Vista Controlador (Model View Controller, MVC por sus siglas en inglés) es el principal patrón de diseño del lado del Back-end, el cual integra los siguientes patrones: Composición, Observador, Singleton, y Objeto de Acceso a los Datos (Data Access Object, DAO por sus siglas en inglés), para la implementación se realizó con el marco de trabajo Struts 2 [15], y el servidor Web GlassFish Server 4.1.1 [16]. La base de datos se hizo con MySQL [17], la cual es el Modelo en el patrón MVC, todo esto se presenta en la Figura 2. Las Vistas son las interfaces de la propuesta con las que interacciona el usuario dentro del patrón MVC, todas implementadas con la librería React.js basadas en componentes. El Controlador del patrón MVC se denomina FilterDispatcher en nuestra propuesta, que en función de la solicitud del usuario lleva a cabo la acción correspondiente y su lógica de negocios asociada. Las Vistas de la propuesta utiliza componentes para implementar las UI, con componentes React personalizables, de código abierto, con composición de terceras partes. La propuesta presentada en la Figura 2 una capa de metadatos, para la serializan los archivos de configuración de los componentes con JDOM [18]. La Figura 2 presenta la integración de Python por primera ocasión en nuestras propuestas para el análisis automático de datos, a lo largo de los años hemos utilizado Java en el Back-end en nuestras propuestas, por esto se presentó la exigencia de integrar Python con Java. Analizando diferentes opciones de integración Python – Java, siendo las principales las siguientes: Jython [19], JPype [20], Jepp [21], JCC [22], Javabridge [23], Py4J [24], y p2j [25]; estudiando una a una estas opciones, seleccionado en definitiva Py4J, posibilitando una la integración con la propuesta, al posibilitarnos ejecutar en Python comandos Java.
  • 145. 144 Fig. 1. Diagrama de Componentes UML presentando el Front-end del profesor de la propuesta. La persistencia de la propuesta se realizó con Hibernate [26] y Mapeado Objeto Relacional (Object- Relational Mapping, ORM por sus siglas en inglés), las cuales relacionaron las estructuras del modelo relacional de la base de datos con las estructuras lógicas en el modelo de OOP. La propuesta implementó el enlazamiento de las estructuras de la base de datos con entidades lógicas, para implementar los diferentes CRUD de la propuesta, por medio de: Hibernate, ORM y patrón DAO. El patrón DAO nos posibilito separar la lógica de negocios de la lógica para accesar a los datos, delegando al patrón DAO el acceso a los datos desde el Modelo.
  • 146. 145 Fig. 2. Back-end de la propuesta. Resultados experimentales La Figura 3 en su sección izquierda muestra el módulo CRUD de contenidos/evaluaciones de la propuesta, es importante mencionar que la UI para crear contenidos/evaluaciones en la aplicación Web de apoyo a la enseñanza del álgebra con componentes React, el módulo CRUD tiene habilitadas las siguientes funcionalidades: Crear nuevo ejercicio, Ver ejercicio, Modificar ejercicio, Eliminar ejercicio y Probar ejercicio; construida utilizando componentes de terceros de Material-UI y React Bootstrap 4, como se explicó en la Figura 1. La Figura 3 en su sección derecha tenemos un ejercicio del tipo completar dimensiones, como se puede ver en la imagen del cuadrado se puede modificar los valores del modelo de áreas, presentando en este caso los valores de 1 en la parte superior, y de 9 en la parte inferior izquierda, este componente en la parte izquierda es del tipo TableBox1, que nos sirve para presentar el modelo de áreas en la propuesta, en la parte derecha inferior derecha se presenta el componente del tipo ResultBox1, que en función de los valores del componente TableBox1 presenta la factorización correspondientes, en este caso la factorización corresponde con (x+1)(x+9) en vista de los valores previamente mencionados, mostrando el área total que en este caso corresponde con x2 +10x+9, la idea de este tipo de ejercicio es ejercitar la factorización algebraica, tenemos a continuación el componente Revisar, que nos sirve para comprobar los datos ingresados, se muestra a continuación el componente Timer que es un temporizador, encargado de tomar el tiempo de los estudiantes, finalmente es importante mencionar que el componente de Navegación se muestra en la parte superior de la Figura 3 derecha, presentando el nombre del contenido/evaluación y a la derecha un botón de Volver al inicio. Fig. 3. Componente CRUD y ejercicio del tipo completar dimensiones del modelo de áreas. La Figura 4 presenta dos ejercicios del tipo completar área total, se diferencia del ejercicio anterior ahora tenemos un componente TableBox2 que no recibe valores del usuario, sino que presenta únicamente el modelo de áreas correspondiente asignadas por el profesor. La Figura 4 en la sección izquierda muestra el ejercicio del tipo completar área total, compuesto con los componentes principales: Contenedor, Contenido, Navegación y Multimedia, el componente Contenido en este caso está compuesto por tres componentes: TableBox2, ResultBox2 y Multimedia; los dos primeros componentes ya los hemos explicados en la Figura 3, mientras que el componente Multimedia como se puede ver en este caso muestra un video de apoyo para los estudiantes, con la idea de apoyarlos para la resolución del ejercicio. La Figura 4 en la sección derecha muestra un segundo ejercicio soportando multimedios, en este caso un sonido, pero en la sección del ResultBox2 por primera vez se muestra el componente Teclado, que es una pequeña calculadora para apoyar a los estudiantes a la hora de poner su respuesta con la notación requerida. La Figura 5 presenta el análisis de datos automático con el módulo de Python-Pandas, por primera vez en nuestras propuestas estamos agregando este módulo, con la finalidad de recabar información de los estudiantes de manera automática para retroalimentación del profesor, la Figura 5 presenta de izquierda a derecha las siguientes estadísticas: el tiempo de respuesta de cada contenido/evaluación, número de intentos para cada contenido/evaluación respectivamente, y la complejidad respectiva asociada a cada pregunta. Para este módulo de análisis de datos automático se valió de las siguientes tecnologías: Python [27], Pandas [28], MySQL, Flask [29] y Chart.js [30]. Python es un lenguaje de programación con soporte para análisis de datos, siendo junto con la librería Pandas un estándar de factor para el tratamiento y análisis de datos, se usó MySQL para el depósito de los datos, Flask se usó debido a que es un marco de trabajo para aplicaciones Web con Python, la cual es una librería para Python por terceros ampliamente utilizada, que en conjunto Chart.js, sirvió para crear las gráficas del módulo basadas en HTML 5 y JavaScript.
  • 147. 146 Fig. 4. Ejercicio del tipo completar área total. Fig. 5. Interfaz del análisis de datos automático para retroalimentación del profesor. 5 Conclusiones y Trabajo Futuro La presente propuesta muestra una Aplicación Web de apoyo a la enseñanza del álgebra utilizando el modelo de áreas, la cual permite crear contenidos/evaluaciones multimedia interactivas como material didáctico de apoyo, reduciendo la elevada complejidad técnica implicada, basadas en el paradigma de componentes de software con sus ventajas inherentes, la propuesta por primera vez agrega un módulo de análisis de datos automático para retroalimentación. Todas las UI del Front-end se codificaron con componentes React.js, mejorando la reutilización, y agregando componentes de terceros, utilizando componentes pre construidos. El Front-end utiliza el patrón composición con los componentes React.js, construyendo componentes complejos de la UI de la propuesta en base a componentes más simples. La propuesta se ha aplicado hasta el momento de forma limitada con algunos estudiantes, pero estamos trabajando para llevar a cabo una prueba más amplia próximamente con estudiantes formales del tercer grado de secundaria. La propuesta empleo para la persistencia MySQL, Hibernate, patrón DAO y MVC, posibilitando que lo contenidos/evaluaciones de la propuesta sean dinámicas, y actualizables, donde los estudiantes pueden explorar sus respuestas, poniendo a prueba sus saberes con ejercicios prácticos, la propuesta ha agregado un módulo de análisis de datos para retroalimentar al profesor, es la primera vez que se agrega un módulo de análisis de datos automático con Python y Pandas y otras tecnologías, este módulo tiene mucho trabajo a futuro, mejorando el análisis básico que hemos hecho para la presente propuesta. La presente propuesta es una aplicación Web teniendo las ventajas siguientes: se puede
  • 148. 147 utilizar a cualquier hora, y desde cualquier lugar, debido a la pandemia de COVID-19 esto ha cobrado relevancia. La propuesta permite agregar elementos multimedia de apoyo complementarios a los contenidos/evaluaciones, para retroalimentar a los estudiantes, y puede adicionar nuevas opciones pedagógicas de acuerdo a las futuras necesidades. La presente propuesta utiliza librerías libres reduciendo costos por licenciamiento, además de que se ha cuidado la mantenibilidad de la propuesta para adaptarla a futuras necesidades de los profesores, por medio de los patrones de diseño de software, que nos permiten actualizar la propuesta de manera continua. El binomio Hibernate-ORM ha posibilita el mapeado de las estructuras del modelo relacional con estructuras lógicas en el modelo de OOP, optimizando el mantenimiento, posibilitando escribir la lógica de negocios con el modelo OOP. En cuanto a trabajo futuro asuntos pendientes: más patrones de diseño de software, codificar más componentes de contenido/evaluaciones, mejorar el análisis de datos automático, agregar un módulo de Inteligencia Artificial (Artificial intelligence, IA por sus siglas en inglés), entre otras. Agradecimientos. Los autores de este artículo agradecen a la Universidad Politécnica de Querétaro, al Instituto Politécnico Nacional (IPN) y a la Escuela Superior de Cómputo (ESCOM) por su apoyo para este trabajo dentro del proyecto SIP: 20210896. Los autores desean reconocer a todos sus colegas y a los estudiantes en general que participaron en el diseño y desarrollo del software, y materiales de aprendizaje descritos en este artículo, y en particular a los estudiantes: Aguirre Álvarez Omar, Bravo Mendoza Brandon de Jesús, Martínez Cervantes Xenia Guadalupe, y Rodríguez Coronado Ricardo. Referencias [1]Jorge Petrosino, Integración de la tecnología educativa en el aula enseñando física con las TIC (2013) Buenos Aires, Argentina. [2] Róbinson Castro Puche Rubby Castro Puche, Algebra desde una perspectiva didáctica (2014) Bogotá, Colombia. [3] Javier León Cárdenas, Álgebra (2014) Azcapotzalco, México, D.F., México. [4]Beúnes J. E., Vargas A.: La introducción de la herramienta didáctica PSeInt en el proceso de enseñanza aprendizaje: una propuesta para Álgebra Lineal. SciELO Cuba. Vol.15, No. 1. (2019) 147-157. [5]Quiroga N.: Software educativo que apoye la calidad del proceso enseñanza-aprendizaje de la asignatura de algebra discreta en la carrera Ingeniería de Sistemas. Revistas Bolivianas. Vol.6, No. 4. (2015) 144-150. [6]Díaz J. J., de Luna M. del C., Salinas H. A.: Curso de nivelación algebraica para incrementar el rendimiento académico en estudiantes de ingeniería en un ambiente virtual de aprendizaje. SciELO México. Vol.9, No. 18. (2019) 456-489. [7] PhET: Free online physics, chemistry, biology, earth science and math simulations, URL: https://phet.colorado.edu/ [8]Area Model Algebra - Polynomials | Factors | Products - PhET Interactive Simulations, URL: https://phet.colorado.edu/en/simulations/area-model-algebra [9] Andy Ju An Wang & Kai Qian, Component-Oriented Programming (2008) Georgia, USA. [10] Clemens Szyperski, Component Software: Beyond Object-Oriented Programming (2002) Boston, MA, USA. [11] React – A JavaScript library for building user interfaces, URL: https://reactjs.org/ [12] Material-UI: A popular React UI framework, URL: https://material-ui.com/ [13] React-Bootstrap · React-Bootstrap Documentation, URL: https://react-bootstrap.github.io/ [14] jQuery, URL: https://jquery.com/ [15] Welcome to the Apache Struts project, URL: https://struts.apache.org/ [16] GlassFish, URL: https://javaee.github.io/glassfish/download [17] MySQL, URL: https://www.mysql.com/ [18] JDOM, URL: http://www.jdom.org/ [19] Home | Jython, URL: https://www.jython.org/ [20]JPype documentation - JPype 1.2.2_dev0 documentation, URL: https://jpype.readthedocs.io/en/latest/ [21] Jepp - Python Wiki, URL: https://wiki.python.org/moin/Jepp [22] JCC · PyPI, URL: https://pypi.org/project/JCC/2.12/ [23] javabridge · PyPI, URL: https://pypi.org/project/javabridge/ [24] Welcome to Py4J - Py4J, URL: https://www.py4j.org/index.html [25] GitHub - chrishumphreys/p2j: Python to Java translator, URL: https://github.com/chrishumphreys/p2j [26] Hibernate. Everything data. – Hibernate, URL: https://hibernate.org/ [27] Welcome to Python.org, URL: https://www.python.org/ [28] pandas - Python Data Analysis Library, URL: https://pandas.pydata.org/ [29] Welcome to Flask - Flask Documentation (2.0.x), URL: https://flask.palletsprojects.com/en/2.0.x/
  • 149. 148 [30] Chart.js | Open source HTML5 Charts for your website, URL: https://www.chartjs.org/
  • 150. 149 Laboratorio basado en Web Multimedia de apoyo a la enseñanza de Fracciones fundado en componentes de software Rubén Peredo Valderrama 1 Iván Peredo Valderrama 2 1 Escuela Superior de Cómputo del Instituto Politécnico Nacional, Av. Juan de Dios Bátiz S/N esquina con Miguel Othón de Mendizábal, México, D.F., 07738. México rperedo@ipn.mx 2 Universidad Politécnica de Querétaro, Carretera Estatal 420 S/N el Rosario el Marqués, México, Querétaro, CP. 76240. ivan.peredo@upq.edu.mx Resumen. La presente propuesta presenta un laboratorio basado en Web multimedia de apoyo a la enseñanza de fracciones fundado en componentes de software, para desarrollar prácticas en línea bajo el paradigma de Educación Basada en Web (Web-Based Education, WBE por sus siglas en inglés), basado en estándares del W3C. La propuesta maneja componentes de software para la composición de la aplicación y multimedios. El laboratorio basado en Web cuenta con varios módulos para la creación de material educativo didáctico de apoyo a la enseñanza de fracciones, además de hacer un análisis de datos de las evaluaciones de los estudiantes utilizando Python y Pandas. La propuesta implemento patrones de diseño de software, resaltando dos: composición, y Modelo-Vista-Controlador (Model-View-Controller, MVC por sus siglas en inglés). La propuesta posibilita a profesores y estudiantes llevar a cabo prácticas en línea, reduciendo la elevada complejidad técnica, permitiendo crear materiales educativos didácticos reutilizables de alta calidad para el apoyo bajo el paradigma de WBE. Palabras clave: Fracciones, Componentes, Educación Basada en Web, W3C. 1 Introducción La Internet y la Telaraña Amplia Mundial (World Wide Web, WWW por sus siglas en inglés) han cambiado a la sociedad actual, permitiendo prácticamente a todo ser humano accesar a información prácticamente ilimitada, creciendo todos los días de manera exponencial. La Web ha abierto una ventana de oportunidades extraordinarias y desafiantes, para desarrollar aplicaciones innovadoras de comunicación para todas las áreas, y en el futuro seguir evolucionando. La pandemia de COVID-19 que estamos viviendo ha evidenciado todavía aún más la importancia de la Internet y la Web en la sociedad. La corporación CISCO menciona que la Internet ha cambiado a la sociedad. La educación no ha estado fuera de este cambio, y ante la pandemia de COVID-19 se han destapado muchas carencias de las instituciones educativas, obligándolas a reinventarse, teniendo que ver desde una nueva perspectiva lo que durante mucho tiempo se consideraron temas controversiales en la educación tradicional como: cursos en línea, tutorías virtuales, especializaciones, etc., para que los estudiantes puedan continuar con sus estudios, lamentablemente no todo ha resultado exitosamente durante esta reinvención, ya que la crisis sanitaria que vivimos ha expuesto la necesidad de herramientas educativas de apoyo innovadoras especializadas, para las diferentes áreas, debido al cierre de las instituciones educativas tradicionales, no se han podido llevar a cabo ciertas actividades presenciales tradicionales, mostrando la carencia de una infraestructura de laboratorios en línea [1]. Las Tecnologías de la Información y la Comunicación (Information and Communication Technologies, TIC por sus siglas en inglés) han transformado todo tipo de actividades, donde la educación no está excluida de esta transformación, pero que ha dejado todavía promesas incumplidas, pero esto está cambiando de manera progresiva. Las TIC pueden ser usadas para dar soluciones creativas a problemas dados, desatando muchas polémicas acaloradas, donde la polémica no debería ser sobre el papel de las TIC en la educación, la polémica debería ser el lugar que se le atribuye a las
  • 151. 150 instituciones educativas en su puesta en práctica de su función social, considerando a las TIC en el marco de su función social. Las TIC en la educación tiene sus seguidores y detractores, pero tenemos que tener una actitud sensata al respecto. Las TIC están con nosotros, para bien o para mal, y cobran más relevancia día a día en la práctica docente. Las inquietudes que estas generan, deben superarse con un constante propósito de sacar provecho de las nuevas oportunidades que estas ofrecen. La disponibilidad cada vez mayor en los salones de clases de las TIC, obliga a la necesidad de replantearse de nuevo preguntas esenciales, aparte de estar de acuerdo o en desacuerdo, para un aprendizaje de algún tipo de conocimiento de estas transformaciones que estamos viviendo, para entender la situación que nos ha tocado vivir. Las metas educativas se pueden conjuntar en general en dos, el primero es una enseñanza de tipo pragmático, y el segundo es una enseñanza de tipo epistémica. La enseñanza pragmática busca lograr resultados eficientes, la epistémica busca transformar la mente del que aprende, las acciones que debe de llevar a cabo cada una son diferentes, la función epistémica busca cambios en la estructura del pensamiento en los estudiantes, no viéndose trastornada por la asequibilidad de la información. La integración de las TIC en la enseñanza ofrecen nuevas oportunidades, y debemos desarrollar aportes que permitan el proceso de integración de las TIC en la práctica docente, en donde el proceso debe sustentarse de varias propuestas. Con el objetivo de que el docente haga uso de herramientas digitales para ligarlas con sus prácticas con las TIC. Las TIC brindan recursos para la enseñanza de múltiples áreas de estudio como: recursos, prácticas, ejercicios, etc. Pero hay propuestas que hasta el día de hoy pueden hacer aportes significativos. La Web ofrece una gran cantidad de simulaciones para apoyar la investigación de un concepto o la simulación de un experimento. Debemos tener en cuenta que las simulaciones son una contribución, y no deben ser vistas como una suplantación de la práctica real [2]. El razonamiento matemático consiste en la habilidad de interpretar y resolver situaciones problémicas, comprender las propiedades de las operaciones, analizar los fenómenos y convertirlos a un lenguaje matemático. El profesor debe propiciar con los estudiantes la curiosidad, en un ambiente que estimule la investigación y el descubrimiento, fomentando el pensamiento matemático, abstrayendo y aplicando ideas matemáticas en un extenso intervalo de contextos [3]. Los e- laboratorios permiten llevar a cabo actividades prácticas por medios electrónicos, un enfoque más específico y actual son los denominados laboratorios basados en Web (Web Based Laboratory, WBL por sus siglas en inglés), los laboratorios pueden ser clasificados en tres grandes grupos: Laboratorios Tradicionales (LT), Laboratorios Remotos (LR), y Laboratorios Virtuales. Los LV y LR puede ser accesibles a través de una Intranet, Internet, Web o ambientes computacionales, para simular LT con instrumentos virtuales. Ante la situación actual debido a la pandemia de COVID-19 las desventajas de los LT saltan a la vista, concentrándonos en este momento en las ventajas de los LV, los cuales enumeraremos a continuación: accesibles a cualquier hora y desde cualquier lugar, reducción en los costos de montaje y mantenimiento, el estudiante puede avanzar a su propio paso, reducción de riesgos con elementos peligrosos, reducción de instrumentos costosos, reducción de insumos caros, el ambiente virtual puede personalizarse para cada estudiante, entre otras. La organización Mexicanos Primero [4] aseguró que el programa gubernamental “Aprende en casa”, que es una estrategia que implementó la Secretaría de Educación Pública (SEP) para la televisión como respuesta al confinamiento de estudiantes durante la emergencia sanitaria por COVID-19, fracasó. Los datos preliminares de una investigación de campo que llevo a cabo la organización con 2,000 estudiantes, donde el 61.6% de los estudiantes entre 10 a 15 años no fue capaz de comprender un texto de cuarto grado de primaria; el 41.8% no entendió un texto de segundo grado de primera y el 14.8% no pudo leer una historia. El diagnóstico se agudiza en el área de las matemáticas, donde el 88.2% de los encuestados no pudo llevar a cabo un problema de tercero de primaria; 36.4% no pudo llevar a cabo adecuadamente restas simples; el 25.8% no pudo llevar a cabo sumas con acarreo y el 96.5% no pudo llevar a cabo favorablemente operaciones con fracciones, lo que significa en este último punto que solo 70 de 2,000 estudiantes pudieron llevar a cabo fracciones correctamente [5]. Debido a lo expuesto previamente la pandemia por COVID ha evidenciado la carencia de
  • 152. 151 herramientas de apoyo en diferentes áreas educativas, ha puesto de manifiesto la necesidad por nuevas herramientas de apoyo innovadoras, para apoyar el aprendizaje en general, y en nuestro caso en específico en la enseñanza del estudio de las fracciones. Para crear actividades relacionadas las cuales tienen un rol esencial en la construcción del conocimiento, cada curso de cualquier área debe contar con actividades específicas, las actividades pueden ser combinadas con recursos didácticos tradicionales o digitales. La propuesta busca apoyar la enseñanza de las fracciones, construyendo ejercicios para la enseñanza de las fracciones dinámicos, donde el estudiante puede explorarlos y poner a prueba sus saberes con ejercicios prácticos. 2 Estado del Arte Hablando de LV en general tenemos dos iniciativas sobresalientes, la Universidad de Oxford, y la Universidad de Carnegie Mello se han ocupado durante algún tiempo de los denominados WBL, accesibles vía Web. En el primer caso tenemos el laboratorio de Química del centro de Química de Tecnología de la Información (Information Technology, IT por sus siglas en inglés) de Oxford, que posibilita que los estudiantes hagan experimentación de química en línea, por su parte Carnegie Mello tiene un laboratorio para experimentación con circuitos eléctricos [6]. En el tema específico de LV para la enseñanza de fracciones mencionaremos a continuación algunas de las principales iniciativas. La Universidad Nacional Autónoma de México (UNAM) se ha apoyado en el denominado proyecto Arquímedes para el desarrollo de contenidos educativos desarrollados por los mismos profesores, heredero del proyecto Descartes de España. Arquímedes se desarrolló en el Instituto de Matemáticas (IM) de la UNAM. El objetivo del proyecto es aprovechar las ventajas de las computadoras y de la Internet para enseñar matemáticas, se ha utilizado Arquímedes para crear contenidos educativos interactivos de matemáticas para el bachillerato, llevando a cabo para tal fin grupos de trabajo especializados en el tema. Existen diferentes sitios con recursos digitales que utilizan Arquímedes, elaborados por diversas dependencias de la misma UNAM como: Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC), Dirección General de Evaluación Educativa (DGEE), entre otras. En el sitio Web del IM de la UNAM en la sección de matemáticas de aritmética para 1o de bachillerato, hay una sección de lecciones entre otras cosas con diferentes ejercicios para fracciones, con texto para matemáticas ilustrados con figuras interactivas [7]. Otra iniciativa sobresaliente es la mencionada academia Khan, es una organización que no busca beneficios económicos, fundada por Salman Khan del Instituto Tecnológico de Masachussetts (Massachusetts Institute of Technology, MIT por sus siglas en inglés), la iniciativa cuenta con ejercicios de práctica, videos y un tablero de aprendizaje personalizado, siendo su pieza clave los videos alrededor de cual gira todo, comprendiendo temas diversos como: ciencias, economía, historia, historia del arte, informática, matemáticas, etc., la iniciativa cuenta con varias secciones con videos de fracciones, complementadas con evaluaciones simples [8]. En la academia Khan los videos tiene un papel fundamental como se mencionó anteriormente, con sus respectivas limitaciones inherentes de interactividad asociadas a este tipo de multimedio, siendo los videos los contenidos educativos. Geogebra es una iniciativa sobresaliente en el aprendizaje de las matemáticas para diferentes niveles educativos, comprendiendo temas diversos como: algebra, estadística, geometría, graficación, cálculo, etc. [9], la iniciativa cuenta con recursos educativos interactivos interesantes, donde los profesores pueden crear recursos educativos para diferentes niveles educativos, también la propuesta soporta evaluaciones interactivas, la propuesta integra una interactividad sobresaliente, a pesar de esto su interactividad es limitada en conjunto con su manejo de multimedios. La iniciativa PhET no busca beneficios económicos, es remarcable señalar que cuenta con recursos educativos donde los estudiantes pueden explorar y experimentar, mostrando un nuevo enfoque innovador en la enseñanza y aprendizaje de la ciencia, basándose en simulaciones computacionales, comprendiendo temas diversos como: biología, ciencias de la tierra, física, matemáticas y química. Los simuladores han sido probados y evaluados plenamente para autentificar su confiabilidad. Las pruebas van desde entrevistas con los estudiantes hasta comentarios en el salón de clase. Las simulaciones
  • 153. 152 computacionales utilizan diferentes tecnologías como: Flash, Java, y Lenguaje de Marcado de Híper Texto (Hyper Text Markup Language, HTML por sus siglas en inglés) 5. PhET comenta que todas las simulaciones son de código abierto. Los recursos educativos están disponibles tanto para estudiantes como para maestros [10]. En el área de matemáticas PhET se cuenta con una gran variedad de simuladores computacionales, y concretamente en el área de fracciones cuenta con las siguientes opciones: Fracciones: Intro, Fracciones: números mixtos, Parejas de Fracciones, Construye una fracción, Fracciones: Igualdades; siendo estas nuestras referencias fundamentales para nuestra propuesta. Algunos simuladores computacionales de PhET usaron en su momento la tecnología de la Plataforma Adobe Flash, pero actualmente ya no hay simuladores computacionales que la utilicen, ya que desde el año 2021 no se podrán ejecutar en navegadores Web actuales [11], las simulaciones computacionales son interesantes e interactivas, posibilitando que los estudiantes puedan explorarlos y poner a prueba sus saberes en ejercicios prácticos. La presente propuesta presenta el desarrollo de un laboratorio basado en Web multimedia especializado de apoyo para a la enseñanza de las fracciones, construyendo fracciones a partir de formas y números con soporte para Arrastrar y Soltar (Drag An Drop), basada en componentes de software. La propuesta tiene como objetivos ser una herramienta de apoyo en la enseñanza de las fracciones, beneficiándose de las ventajas que brinda la Internet y la Web. La propuesta hace uso de patrones de diseño de software para controlar las actualizaciones en la propuesta, la construcción del Front-end se basa en de componentes de software para la construcción de la Interfaz de Usuario (User Interface, UI por sus siglas en inglés), permitiéndonos construir componentes complejos en base a componentes más simples. La propuesta busca rebajar la complejidad técnica asociada para crear contenidos educativos multimedia interactivos, beneficiándose de las oportunidades que proporciona la Internet y la Web, posibilitando ejercicios interactivos multimedia, donde los estudiantes ponga sus saberes a prueba con experiencias prácticas donde puedan experimentar, enriqueciendo sus experiencias. 3 Metodología usada La propuesta en el Front-end se basa completamente en componentes de software, debido a tres puntos esenciales: conquistar la complejidad, lidiar con el cambio, y reusó [12]. Los componentes software son unidad de composición con interfaces contractualmente definidas y dependencias de contexto explicitas, además pueden ser desplegado independientemente y son sujeto de composición por terceras partes [13], los componentes fueron nuestras unidades de construcción de la UI del Front-end de la propuesta. La implementación de la propuesta se llevó a cabo por medio de la librería React.js, codificando los componentes con ECMAScript 6, esta es posiblemente la mayor actualización de JavaScript, soportando por primera vez las clases entre otras cosas, transformándolo progresivamente en un verdadero lenguaje de Programación Orientada a Objetos (Object Oriented Programming, OOP por sus siglas en inglés). La librería React.js tiene varios puntos sobresalientes por los cuales fue seleccionada para la propuesta como: es gratuita, código libre, totalmente JavaScript, funciona con diferentes tipos de Back-end, permite la construcción de UI, basada en componentes, Modelo Objeto Documento (Documento Object Model, DOM por sus siglas en inglés) Virtual, React Native para el desarrollo de aplicaciones móviles, entre otras [14]. La mayoría de los navegadores Web actuales soportan ECMAScript 5 (JavaScript 1.8.5), y pocos soportan ECMAScript 6, debido a esta situación se utilizó un transpilador para convertir el código desde ECMAScript 6 a la versión ECMAScript 5, para llevar a cabo esta tarea se empleó Webpack, que es un empaquetador de recursos para aplicaciones JavaScript modernas. Webpack llevó a cabo la degradación del código por medio de los denominados cargadores, en el caso de la propuesta se hizo uso del babel-loader. La inyección del código resultado del transpilador en páginas HTML se llevó a cabo por medio del plug-in html-webpack-plugin y del cargador html-loader, por medio de la etiqueta HTML script. Los componentes de la propuesta se mapearon a través del contenedor relativo a la página HTML, con ReactDOM.render() se llevó a cabo la renderización de los componentes de la propuesta, el método render lleva dos argumentos, el primero es el componente que se busca renderizar, el segundo es el contenedor donde el componente se renderizara.
  • 154. 153 La Figura 1 presenta el diagrama de componentes UML mostrando el Front-end de la propuesta. El Front-end fue totalmente llevado a cabo con componentes de software utilizando la librería React.js, y para la implementación Arrastrar y Soltar (Drag An Drop) de la propuesta, se utilizó la librería react-dnd [15]. En la parte superior de la Figura 1 se presenta el componente App siendo este el contenedor de todo nuestro Front-end, este componente a su vez contiene el componente UserContext con el estado del usuario, a su vez este componente contiene el componente GameContext con el estado del juego, contenido a su vez tenemos el componente Layout que mantiene la distribución de nuestro Front-end, en la parte izquierda tenemos el componente Login que es el componente para validar usuarios, este tiene la dependencia con el componente Form, y a su vez este tiene las dependencias con los componentes: Button, Input, UseForm; este último componente mantiene el estado de la forma, además se tiene la dependencia con el componente const que contiene los valores de: niveles de figuras, niveles de números, y formas. El componente Levels presenta los niveles y tiene la dependencia con el componente LevelsContainer, que es un contenedor del componente LevelCard que tiene la dependencia con los componentes: Stars, Image, Audio y Video; que muestran en los niveles la información del nivel con su respectivo multimedio asociado si es el caso. Los componentes Edit y NewLevel tienen las dependencias con los componentes Form y const, los cuales como su nombre lo indican para editar y crear nuevos niveles de la propuesta. El componente LevelView presenta un nivel especifico y tiene la dependencia con el componente Level, que a su vez tiene las dependencias con los componentes: OptionsBox, Answers, SideBar y DragFigureBox; donde el primero representa las opciones de las cajas, el segundo muestra y verifica si las respuestas son correctas, el tercero es la barra de navegación en la parte izquierda del nivel con las opciones: regresar y refrescar la página, el último representa la caja de la figura arrastrable; OptionsBox tiene la dependencia con el componente Figure que representa las figuras de opción para resolver el ejercicio, que en nuestro caso son los círculos que utilizamos para la propuesta, Answers tiene las dependencias con los componentes: AnswerBox y Fraccion, el primero representa la caja de respuesta, mientras que el segundo es la fracción con su numerador y denominador, estos se ve en la parte derecha del componente Level; finalmente SideBar tiene la dependencia con el componente NavigationBtn, el cual establece los enlaces de navegación. La propuesta implementa un Crear (NewLevel), Leer (Levels), Actualizar (Edit) y Borrar(Delete) (Create, Read, Update and Delete, CRUD por sus siglas en inglés), una vez validado el profesor puede utilizar el componente CRUD distribuido a lo largo de la propuesta, para crear los contenidos/evaluaciones didácticas de fracciones de la propuesta. Fig. 1. Diagrama de Componentes UML presentando el Front-end de la propuesta.
  • 155. 154 La Figura 2 presenta el diagrama de despliegue de la propuesta, presentando el Front-end y Back-end de la propuesta, el patrón Modelo Vista Controlador (Model View Controller, MVC por sus siglas en inglés) es el patrón principal del lado del Back-end, el cual conjunta los patrones: Composición, Observador, Singleton, y Objeto de Acceso a los Datos (Data Access Object, DAO por sus siglas en inglés), para la implementación se llevó a cabo con el marco de trabajo Struts 2 [16], y el servidor Web GlassFish Server 4.1.1 [17]. La base de datos se implementó con MySQL [18], que en conjunto con las clases del middleware de acceso a la base de datos conforman el Modelo. Las Vistas son las UI de la propuesta con las que interacciona el usuario, todas implementadas en React.js y con componentes personalizados, permitiendo agregar componentes propios y de terceros en conjunto con el patrón composición, para construir componentes más complejos, el Front-end se ejecuta desde un navegador Web. El Controlador en Struts 2 se llama FilterDispatcher, que de acuerdo a la solicitud del usuario ejecuta la acción correspondiente y su lógica de negocios asociada si es el caso. En la Figura 2 se puede ver un módulo denominado MetadatosXML, que tiene la dependencia de la librería JDOM para gestionar los archivos XML de configuración de los componentes [19]. En la Figura 2 también se puede ver un módulo de subida de archivos (Uploading), que nos permitió subir los multimedios asociados a los contenidos/evaluaciones, posibilitando enriquecer las experiencias de los estudiantes, al ser estos materiales de apoyo complementario. La Figura 2 muestra el módulo con Python de nuestra propuesta para el análisis automático de datos, debido a que hemos utilizado Java en el Back-end en nuestra propuesta, se tuvo la necesidad de conjuntar Python con Java. Examínanos diferentes posibilidades de conjuntar Python – Java, las más importantes fueron las siguientes: Jython [20], JPype [21], Jepp [22], JCC [23], Javabridge [24], Py4J [25], y p2j [26]; analizando ventajas y desventajas de cada una, optando finalmente por Py4J, permitiendo una la integración con la propuesta, permitiéndonos ejecutar en Python comandos Java. El módulo de persistencia se llevó a cabo con Hibernate [27] y el Mapeado Objeto Relacional (Object-Relational Mapping, ORM por sus siglas en inglés), relacionando las estructuras del modelo relacional de la base de datos con estructuras lógicas en el modelo de OOP, mejorando la mantenibilidad. Para la funcionalidad se implementaron diferentes CRUD en la propuesta, en conjunto con: Hibernate, ORM y patrón DAO. El patrón DAO permitió separar lógica de negocios - lógica para accesar a los datos, delegando al patrón DAO el acceso a los datos desde el Modelo. En la Figura 2 se puede ver que aparte de la dependencia de Hibernate, también se tiene la dependencia del driver MySQL JDBC. Fig. 2. Diagrama de Despliegue UML de la propuesta. Resultados experimentales La Figura 3 en su sección izquierda muestra los contenidos/evaluaciones multimedia interactivas con fracciones que en el LV se hayan creado, después de que se haya validado el usuario por medio del componente de Login, en esta sección izquierda lo que estamos viendo desplegado es el componente Levels con sus respectivas dependencias, sobresaliendo el componente LevelsContainer, a su vez con sus dos dependencias: LevelCard y Stars, en este caso en particular se puede ver que en este caso específico solo se dispone de un ejercicio con título: QUINTOS, de nivel 1, además cuenta en este caso con un sonido con las instrucciones para el ejercicio en la forma de un archivo en formato mp3, en la parte inferior de la Figura 1 se dispone de la opción Crear un nuevo nivel y cerrar sesión, la primera opción permite crear nuevos contenidos/evaluaciones multimedia interactivas con fracciones, la segunda sale de la sesión del usuario y lo regresa al componente de Login para
  • 156. 155 validarse nuevamente. La Figura 3 en su sección derecha es la opción cuando damos clic al enlace Crear un nuevo nivel, donde lo que vemos desplegado es el componente NewLevel con sus respectivas dependencias, sobresaliendo el componente Form en la Figura 1, una vez llenado el formulario la producción de contenidos/evaluaciones multimedia interactivas con fracciones lleva unos segundos, lo que muestra la conquista la complejidad técnica para producir materiales educativos de apoyo a la enseñanza de las fracciones. Fig. 3. Listado y creación de ejercicios multimedia interactivos para fracciones. La Figura 4 en su sección izquierda se muestra el contenido/evaluación multimedia interactivas con fracciones creado previamente en la Figura 3, mostrando el componente LevelView con su respectiva dependencia del componente Level, con sus correspondientes dependencias sobresaliendo: OptionsBox, Answers, y SideBar; donde OptionsBox es la caja mostrada en el fondo de la Figura con tres círculos con las fracciones: 1, 3, y 5; 5 5 5 mientras que Answers se encuentra en la parte derecha de la Figura 4 y son las cajas con las respuesta esperadas con la respectiva fracción buscada; SideBar es la barra de navegación mostrada en la parte izquierda de la Figura 4 con las opciones: regresar y refrescar; en el este caso específico de la Figura 4 el estudiante está resolviendo el ejercicio planteado por el profesor, habiendo colocado como respuestas hasta el momento: 1 y 5 2. La Figura 4 en su sección derecha prácticamente es la misma que la anterior con la diferencia de que el 5 estudiante ha completado todas las respuestas, y el componente Answers lo ha evaluado positivamente. En las dos Figura 4 en la parte inferior tenemos dos imágenes, una un engrane y la segunda un bote de basura, para representar las funcionalidades de editar y borrar el ejercicio. La Figura 5 presenta el gráfico del análisis de datos automático con el módulo de Python-Pandas, con el objetivo de colectar información de los estudiantes de forma automática para retroalimentación del profesor, la Figura 5 presenta una gráfica combinada con las métricas: tiempo de respuesta, número de intentos y complejidad; esta información se obtuvo de los registros de la base de datos, analizándose con Python [28] y Pandas [29], para ser presentados con Flask [30] y Chart.js [31]. Python es un lenguaje de programación con soporte para análisis de datos, en conjunto con la librería Pandas en los últimos años se ha convertido en un estándar de factor para el tratamiento y análisis de datos, los datos se obtuvieron de MySQL como depósito de los datos, Flask se usó en la propuesta ya que es un marco de trabajo para aplicaciones Web con Python, la cual es una librería ampliamente utilizada, que en junto con Chart.js, permitió crear las gráficas del módulo basadas en HTML 5 y JavaScript. Fig. 4. Resolución y evaluación de ejercicios multimedia interactivos con fracciones.
  • 157. 156 Fig. 5. Interfaz del gráfico del análisis de datos automático para retroalimentación del profesor. 5 Conclusiones y Trabajo Futuro La presente propuesta presenta un WBL de apoyo a la enseñanza de fracciones, el cual ha posibilitado crear contenidos/evaluaciones multimedia interactivas como material didáctico de apoyo, conquistando la elevada complejidad técnica implícita, fundada en componentes de software, la propuesta añade un módulo de análisis de datos automático para retroalimentación. Toda la UI del Front-end se implementó con componentes React.js, añadiendo componentes de terceros pre construidos. El Front-end construyo los componentes de la UI complejos en base a componentes más simples de acuerdo al patrón composición en el Front-end. Los materiales didácticos de apoyo a la enseñanza de las fracciones pueden ser construido en minutos reduciendo la complejidad técnica involucrada. La persistencia se llevó a cabo con: MySQL, Hibernate, patrón DAO y MVC, permitiendo que lo materiales didácticos de apoyo de la propuesta sean dinámicos, y actualizables, pero además de esto los estudiantes pueden poner a prueba sus saberes, explorando sus respuestas con ejercicios prácticos, la propuesta ha añadido un módulo de análisis de datos para retroalimentar al profesor, con Python - Pandas y otras tecnologías, el módulo hace un análisis muy sencillo de los resultados, teniendo mucho trabajo por delante, ya que se requiere mejorar el análisis básico que se ha llevado a cabo para la presente propuesta. La presente propuesta es un WBL con las siguientes ventajas: se puede utilizar a cualquier hora, y desde cualquier lugar, siendo esto oportuno ante la pandemia por COVID-19 que estamos viviendo. La propuesta posibilita añadir elementos multimedia de apoyo complementarios a los materiales didácticos de apoyo, para apoyar a los estudiantes en la resolución de sus ejercicios, es posible adaptar los materiales didácticos de apoyo actuales a nuevas iniciativas pedagógicas futuras. La propuesta ha buscado utilizar librerías y marcos de trabajo libres, con la finalidad de reducir los costos de licenciamiento del prototipo a lo mínimo, con la finalidad de que en versiones de producción los costos sean lo más bajos posible, los patrones de diseño de software han permitido una mejor gestión del cambio del proyecto, para adaptarlo a requerimientos futuros. La integración de tecnologías: Hibernate-ORM, DAO, y MVC ha mejorado la escalabilidad de la propuesta. Hay muchos asuntos como trabajo a futuro que se pueden mejorar, mencionado solo algunos: patrones de diseño de software adicionales, codificar más componentes pre construidos, llevar a cabo un análisis de datos automático más profundo, añadir un módulo de Inteligencia Artificial (Artificial intelligence, IA por sus siglas en inglés), entre otras. Agradecimientos. Los autores de este artículo agradecen a la Universidad Politécnica de Querétaro,
  • 158. 157 al Instituto Politécnico Nacional (IPN) y a la Escuela Superior de Cómputo (ESCOM) por su apoyo para este trabajo dentro del proyecto SIP: 20210896. Los autores desean reconocer a todos sus colegas y a los estudiantes en general que participaron en el diseño y desarrollo del software, y materiales de aprendizaje descritos en este artículo, y en particular a los estudiantes: Becerril Bernal Malinali, Leal Hernández César, Reyes Medrano Alexis Daniel, y Rodríguez Coronado Ricardo. Referencias [1]¿Internet nos ha cambiado la vida?, URL: https://www.muyinteresante.es/tecnologia/articulo/iinternet-nos-ha- cambiado-la-vida [2]Jorge Petrosino, Integración de la tecnología educativa en el aula enseñando física con las TIC (2013) Buenos Aires, Argentina. [3] Róbinson Castro Puche Rubby Castro Puche, Algebra desde una perspectiva didáctica (2014) Bogotá, Colombia. [4] Mexicanos Primero. Solo la educación de calidad cambia a México, URL: https://www.mexicanosprimero.org/ [5]'Aprende en casa' fracasó, acusa Mexicanos Primero, URL: https://www.forbes.com.mx/aprende-en-casa-fracaso- mexicanos-primero/ [6] C. C. Ko, B. M. Chen, J. Chen, Creating Web-Based Laboratories (2014), USA. [7] Aritmética, URL: http://newton.matem.unam.mx/arquimedes/aritmetica/index.html [8]Intro to fractions (video) | Fractions intro | Khan Academy, URL: https://www.khanacademy.org/math/cc-third-grade- math/imp-fractions/imp-fractions-intro/v/fraction-basics [9] FRACCIONES – GeoGebra, URL: https://www.geogebra.org/m/ZTH8dPrR#material/DeJ8EJW9 [10] PhET: Free online physics, chemistry, biology, earth science and math simulations, URL: https://phet.colorado.edu/ [11] Adobe anuncia la muerte de Flash, URL: https://www.eluniversal.com.mx/articulo/techbit/2017/07/26/adobe-anuncia- la-muerte-de-flash [12] Andy Ju An Wang & Kai Qian, Component-Oriented Programming (2008) Georgia, USA. [13] Clemens Szyperski, Component Software: Beyond Object-Oriented Programming (2002) Boston, MA, USA. [14] React – A JavaScript library for building user interfaces, URL: https://reactjs.org/ [15] React DnD, URL: https://react-dnd.github.io/react-dnd/about [16] Welcome to the Apache Struts project, URL: https://struts.apache.org/ [17] GlassFish, URL: https://javaee.github.io/glassfish/download [18] MySQL, URL: https://www.mysql.com/ [19] JDOM, URL: http://www.jdom.org/ [20] Home | Jython, URL: https://www.jython.org/ [21]JPype documentation - JPype 1.2.2_dev0 documentation, URL: https://jpype.readthedocs.io/en/latest/ [22] Jepp - Python Wiki, URL: https://wiki.python.org/moin/Jepp [23] JCC · PyPI, URL: https://pypi.org/project/JCC/2.12/ [24] javabridge · PyPI, URL: https://pypi.org/project/javabridge/ [25] Welcome to Py4J - Py4J, URL: https://www.py4j.org/index.html [26] GitHub - chrishumphreys/p2j: Python to Java translator, URL: https://github.com/chrishumphreys/p2j [27] Hibernate. Everything data. – Hibernate, URL: https://hibernate.org/ [28] Welcome to Python.org, URL: https://www.python.org/ [29] pandas - Python Data Analysis Library, URL: https://pandas.pydata.org/ [30] Welcome to Flask - Flask Documentation (2.0.x), URL: https://flask.palletsprojects.com/en/2.0.x/ [31] Chart.js | Open source HTML5 Charts for your website, URL: https://www.chartjs.org/
  • 159. 158 Objeto de aprendizaje para la enseñanza de las estructuras de repetición utilizando dispositivos móviles y realidad aumentada José Rafael Rojas Torres, Claudia Zepeda Cortés, Hilda Castillo Zacatelco, José Luis Carballido Carranza, Carmen Cerón Garnica Benemérita Universidad Autónoma de Puebla, Facultad de Ciencias de la Computación, Calle 4 sur 104, Colonia Centro, Puebla, Puebla. 72000. México rafael07.rojas@gmail.com, czepedac@gmail.com Resumen. Actualmente, el desafío para las universidades reside en rediseñar propuestas didácticas que involucren el trabajo colaborativo para el fomento de un aprendizaje significativo y el incremento progresivo en la actividad docente de la utilización de los recursos educativos electrónicos que combinen diferentes aproximaciones más creativas y colaborativas. En este trabajo se propone desarrollar un Objeto de Aprendizaje que apoye a los estudiantes interesados en aprender, conocer o reforzar los conocimientos referentes a las estructuras de repetición, las cuales parten de las estructuras de control, necesarias para la elaboración de algoritmos y programas. Estas estructuras son tratadas en las materias que cubren las bases de la metodología de la programación para cursos del área de programación. Palabras clave: Objeto de aprendizaje, realidad aumentada, enseñanza. 1Introducción El proceso de aprendizaje ha pasado de ser estático, a tener una gran movilidad, los estudiantes requieren de una mayor diversidad de espacios y recursos, es por esto por lo que el aprendizaje en movimiento ha surgido como apoyo a estas necesidades [1]. Se han generado nuevos apoyos para el aprendizaje de un tema o tópico en específico y, entre estos nuevos apoyos, han arribado los objetos de aprendizaje (OA). Un OA es cualquier entidad digital o no digital que puede ser usada, re-usada o referenciada para el aprendizaje soportado en tecnología; su uso se refiere a la creación de entidades digitales con la intención de que puedan ser consultadas por diferentes personas y reutilizadas en múltiples aplicaciones, esto para apoyar la adquisición de conocimiento o bien como instrumento para reforzar el ya adquirido [2]. En los últimos 15 años los sistemas educativos universitarios han propiciado una serie de alternativas y propuestas para la educación utilizando Internet como medio de comunicación y tratando de desplazar en un alto porcentaje las clases presenciales [3]. Asimismo, entre los diferentes desafíos que surgen para las instituciones de educación superior, se ubica el de rediseñar propuestas didácticas que involucren el trabajo colaborativo para el fomento de un aprendizaje significativo y el incremento progresivo en la actividad docente de la utilización de los recursos educativos electrónicos que combinen diferentes aproximaciones más creativas y colaborativas [3]. Al mismo tiempo en [3]se indica que ha sido corroborado en diferentes estudios internacionales que las herramientas de realidad aumentada muestran alto niveles de satisfacción cuando el alumnado utiliza esta tecnología y también muestran el aumento significativo de los niveles de motivación por parte del alumnado, potenciando escenarios formativos más motivadores, colaborativos e interactivos. De aquí que en este trabajo se describe una propuesta acerca del desarrollo de un OA que apoye en la enseñanza universitaria a alumnos interesados en aprender, conocer o reforzar los conocimientos referentes a las estructuras de repetición, las cuales parten de las estructuras de control necesarias para la elaboración de algoritmos y programas. Estas estructuras son tratadas en aquellas materias que contienen tópicos relacionados con la metodología de la programación, misma que es el punto de partida y base de los cursos del área de programación subsecuentes. Por tanto, el objetivo de este trabajo es describir el desarrollo e implementación de un OA para la
  • 160. 159 enseñanza de las estructuras de repetición utilizando dispositivos móviles y realidad aumentada. Aquí, las estructuras de repetición serán mostradas en dos de las principales representaciones de algoritmos: Diagrama de Flujo y Pseudocódigo. 2 Estado del arte Existen diversos trabajos relacionados al tema, donde se argumenta la importancia de las herramientas que contribuyen en el proceso de aprendizaje-enseñanza, específicamente del área de programación, fortaleciendo así los conocimientos de lógica. Sin embargo, no existe ninguno enfocado en la enseñanza de las estructuras de repetición utilizando como herramienta a los dispositivos móviles y la realidad aumentada, razón por la que este trabajo propone integrar estas tres características. En esta sección damos un panorama reducido del estado del arte relacionado con este trabajo. La aplicación Nozomu [4], se realiza específicamente para dispositivos móviles con sistema operativo Android, permitiendo que los estudiantes por medio de teoría, ejemplos, ejercicios y evaluaciones conozcan, fortalezcan y refuercen sus conocimientos básicos de la lógica de programación que son fundamentales para el aprendizaje de cualquier lenguaje de programación o el desarrollo de cualquier aplicación. Este trabajo está dirigido a apoyar los procesos de aprendizaje de los conceptos más elementales de la lógica de programación teniendo en cuenta las dificultades que los estudiantes de primeros semestres poseen a la hora de intentar adquirir estos conocimientos, aprovechando diferentes ventajas y facilidades que ofrecen las tecnologías móviles. En [5] se describe a EPRA, un material educativo digital que utiliza realidad aumentada para el desarrollo de una serie de actividades con diferentes intenciones didácticas para la enseñanza de programación. Este material educativo consiste en un sitio web a través del cual los alumnos pueden complementar los conceptos teóricos y prácticos vistos en los cursos introductorios de programación. EPRA propone incluir a la realidad aumentada como una estrategia complementaria que pueda ayudar al alumno a vivenciar conceptos abstractos que se abordan en el primer año de la carrera. Por último, en [6] se describe un OA enfocado en la enseñanza de asignaturas de ingeniería en informática. Este OA enfoca la problemática que se presenta en los tópicos de mayor dificultad al momento de estudiar la asignatura de informática. Cada tópico es representado mediante conceptos y una pequeña visualización en realidad aumentada para mejorar la comprensión de los siguientes temas: Matrices, Listas ligadas y Apuntadores. 3 Metodología usada El concepto llamado diseño instruccional representa el proceso sistémico, planificado y estructurado que se debe llevar a cabo para producir materiales educativos eficaces y efectivos, utilizando tecnología, cuyo fin es desarrollar en el estudiante las competencias suficientes para el aprendizaje [7]. ADDIE [8] es uno de los procesos de diseño instruccional existentes, donde los resultados de la evaluación formativa de cada fase pueden conducir al diseñador instruccional de regreso a cualquiera de las fases previas. ADDIE es el acrónimo del proceso de diseño instruccional, atendiendo a sus fases: diseño, desarrollo, implementación, análisis y evaluación de propuestas formativas. Por los propósitos de este trabajo, la metodología que se siguió en este trabajo sigue el proceso de diseño instruccional ADDIE. 3.1 Análisis Los entregables de esta etapa son los bloques de actividades, además se selecciona el tipo de aprendizaje que resulta más adecuado y otros aspectos clave. Para el caso del OA que se desarrolló,
  • 161. 160 el tema principal abordado son las Estructuras de Repetición, acompañado de los siguientes subtemas: definición y clasificación de las estructuras de repetición, estructura Para, estructura Mientras, estructura Repite-Hasta. Es importante mencionar que los ciclos de repetición planteados son sencillos puesto que es la primera parte y al mismo tiempo lo que más cuesta comprender como primer acercamiento a la programación. Ciclos con un máximo de 20 repeticiones, sin anidamientos y sobre todo secuenciales. El OA está pensado en los alumnos de nuevo ingreso de la Facultad de Ciencias de la Computación o cualquier persona que desee empezar a programar. Las actividades que se incluyen en el OA pueden ser de diferentes tipos, como introductorias, intermedias, de autoevaluación y finales. Las actividades que se incluyen en este OA son las siguientes: introducción al OA, introducción a los conceptos básicos manejados en el OA, dirigidas a comprender qué son y para qué sirven las estructuras de repetición, descripción de la estructura PARA y su función, descripción de la estructura MIENTRA y su función, descripción de la estructura REPETIR-HASTA y su función, evaluación de las estructuras de repetición, y retroalimentación del OA. 3.2 Diseño Está basado en las actividades descritas durante la etapa de análisis y finaliza con un esquema que incluye una serie de aspectos tales como: objetivos de aprendizaje, medidas de evaluación y estructura del proceso. El objetivo de aprendizaje del OA aquí descrito es apoyar para que el alumno maneje conceptos básicos de las estructuras de repetición, así como el uso e implementación de estas para la resolución de problemas. La estructura del proceso que se siguió para el OA se planteó mediante storyboards. Un storyboard, también conocido como guion gráfico, es un compuesto de dibujos secuenciales que ilustran los planos de la aplicación audiovisual para el OA [9]. A manera de ejemplo, en las Fig.1 y Fig. 2, se muestran escenas incluidas en el storyboard del OA. La Escena 1 da un primer acercamiento al OA poniendo en contexto al usuario dando una breve descripción del OA y una bienvenida. La Escena 2 muestra un menú de navegación para permitir la movilidad entre los temas. La Escena 3 muestra la introducción del tema central, las estructuras de repetición acompañada de una imagen alusiva al tema. La Escena 4 comienza abordando la primera estructura de repetición, “el ciclo Para”, se inicia con una breve descripción acompañada de una imagen y dos botones que nos conducen a escenas subsecuentes de la explicación del tema. Escena: 1 Escena: 2 Descripción: Muestra es una pequeña presentación sobre los OAs. Descripción: Muestra un menú para acceder a los apartados que contiene el OA. Fig. 1. Escenas 1 y 2 del OA. Nuestro OA no solo consta de la aplicación móvil, también está integrada por el recurso interactivo en realidad aumentada, algunas de las escenas de los storyboads del OA fueron diseñadas para ello de la siguiente forma. Se muestran cubos flotando alrededor de la pantalla, mediante la cámara, el
  • 162. 161 usuario deberá encontrar todos los cubos a su alrededor (esto es gracias al giroscopio del teléfono celular) y con una luz que sale del centro deberá ir seleccionando todos los cubos, se muestra además un contador, mostrando los cubos que va capturando. El ciclo usado puede ser el “ciclo mientras” mostrando así que mientras no se capturen los 20 cubos la actividad continua. De esta manera se muestra que el uso de las estructuras de repetición puede ser incluido en nuestro entorno, por ejemplo, en algo tan simple como lo es un juego. Escena: 3 Escena: 4 Descripción: En esta escena se muestra la introducción de las estructuras de repetición con imágenes. Descripción: En esta escena se muestra la introducción del ciclo Para con imágenes alusivas al tema. Fig.2. Escenas 3 y 4 del OA. 3.3 Desarrollo e implementación El OA fue implementada como una aplicación móvil, es por ello que se optó por usar el IDE Android Studio, acompañado del Motor grafico Unity con SDK Vuforia para el desarrollo de nuestro recurso didáctico de realidad aumentada, y por último Sony Vegas para los videos de apoyo que se integrarán en el OA. Para poner en práctica la aplicación se utilizó un celular Motorola modelo MotoG6, este modelo de celular fue elegido porque es un teléfono de gama media-baja y siendo un teléfono estándar está ligeramente por encima de las características mínimas que se requieren para correr ambas aplicaciones. El primer paso es tener alojadas las aplicaciones dentro del teléfono, de momento los archivos APK se encuentran dentro de una carpeta en Google drive (véase Fig. 3), al tener el link lo único que se debe hacer es descargarlos desde un ordenador o desde el mismo dispositivo móvil. Una vez que tenemos las aplicaciones en el teléfono lo que sigue es instalarlas (véase Fig. 4). Ahora es momento de ejecutar nuestras aplicaciones y observar el comportamiento de cada una (véase Fig. 5).
  • 163. 162 Fig. 3. Carpeta de Google Drive donde se alojan los APK. Fig. 4. Vista de la instalación de los APK en el Dispositivo Móvil. Fig. 5. Vista del Dispositivo Móvil ejecutando la aplicación. 3.3 Evaluación y resultados La evaluación del desempeño del OA se llevó a cabo con un grupo de 20 estudiantes de primer semestre la Facultad en Ciencias de la Computación de la Benemérita Universidad Autónoma de Puebla, con la ayuda de sus dispositivos móviles (teléfonos con diferentes características). Se optó por utilizar la rúbrica mencionada en [10], favoreciendo así la identificación de las áreas de oportunidad y fortaleza dentro del aprendizaje de cada estudiante. La rúbrica diseñada y utilizada se muestra en la Tabla 1. ASPECTO EXCELENTE (3) SUFICIENTE (2) INSUFICIENTE (1) DEFICIENTE (0) DISEÑO La aplicación demuestra un diseño moderno e innovador. Adecuado al público para el que fue diseñado. La aplicación demuestra un diseño aceptable y sobresale dentro de otras aplicaciones de su tipo y estilo. La aplicación demuestra un diseño poco atractivo y no relacionado al público para el que fue pensado y diseñado. La aplicación demuestra un diseño anticuado que no genera ningún atractivo para cualquier tipo de público. MANEJABI LIDAD Es intuitiva y sencilla de utilizar. Adecuada para el público para el que esta Demuestra un manejo sencillo, pero podría generar dudad si no se utiliza en el Presenta un manejo complicado, requiere de competencias No es intuitiva y demuestra ser de manejo altamente complicado ya que requiere de
  • 164. 163 designada. nivel educativo adecuado. específicas para su uso. conocimientos y competencias específicos.. CALIDAD Manifiesta una calidad excelente desde el punto de vista educativo. Presenta una calidad aceptable, aunque mantiene ciertas carencias didácticas o educativas. No destaca por su calidad ya que ni la instructiva ni su lenguaje están adaptados al nivel educativo designado. Pésima calidad ya que presenta errores ortográficos o gramaticales, un lenguaje incorrecto y escaza instructiva. UTILIDAD Se puede usaren el aula para complementar la construcción de aprendizajes de los estudiantes. Aporta información valiosa y apoya al docente, pero, no complementa los aprendizajes de estudiantes. Solo aporta información no relevante y no se hace indispensable en el aula. No es relevante y no aporta ningún dato o información nueva a estudiantes o docentes. OBSERVACIONES: TOTAL: Tabla 1. Rúbrica utilizada para la evaluación del OA. Del recopilado de la rúbrica se obtuvieron los resultados que se muestran en la Tabla 2. EXCELENTE SUFICIENTE INSUFICIENTE DEFICIENTE DISEÑO 40% 45% 10% 5% MANJEBILIDAD 65% 30% 5% 0% CALIDAD 55% 20% 25% 10% UTILIDAD 70% 30% 0% 0% Tabla 2.Resultados de la rúbrica utilizada para la evaluación del OA. Al recopilar las observaciones de cada uno de los estudiantes y englobarlas, se puede concluir que la aplicación logra el objetivo de ser un apoyo a los estudiantes, sin embargo, se pueden mejorar aún diferentes aspectos y también enriquecerla con otras actividades en realidad aumentada. 4 Conclusiones y futuras investigaciones En este trabajo se muestra el desarrollo de un OA que funciona sobre un dispositivo móvil y que está dirigido a apoyar a los estudiantes interesados en aprender, conocer o reforzar los conocimientos referentes a las estructuras de repetición que se revisan en cualquier curso de introducción a la metodología de la programación. Debido a que actualmente casi el 100% de los estudiantes de nivel superior cuentan con un dispositivo móvil, este trabajo representa una muestra del alcance que puede tener una aplicación con fines educativos y que se apoya de la realidad aumentada. El uso de realidad aumentada para desarrollar aplicaciones que impacten en ámbitos educativos, apoyando la labor de enseñanza-aprendizaje, podría ser aplicado en la enseñanza de todos los niveles, lo que puede verse como trabajo a futuro que se desprende de este proyecto. Como trabajo a futuro y gracias a la excelente sugerencia de un revisor, se podría buscar integrar de una mejor manera el manejo de la realidad aumentada, para darle más dinamismo al OA, de tal manera, que no fuera solo capturar cubos, sino mostrar los datos del avance en el ciclo y dejar decidir al usuario si captura o no un nuevo cubo, permitiéndole acertar o equivocarse, para que comprenda mejor el funcionamiento de las estructuras de repetición. Referencias [1] J. Bonet y F. Fargueta. Área de sistemas de información y comunicaciones. Los objetos de aprendizaje como recurso para la docencia universitaria: criterios para su elaboración. Instituto de Ciencias de la Educación. España, 2011. [2] L. García. MOOC. Objetos de aprendizaje. Contextos Universitarios Mediados, 2013.
  • 165. 164 [3] J. Cabero, E. Vázquez y E. López. Uso de la Realidad Aumentada como Recurso Didáctico en la Enseñanza Universitaria. Universidad de Sevilla, 2018. [4] L. S. Hernández, L. Cortés y M. Leonardo. Aplicación para Dispositivos Móviles con Sistema Operativo Android para el Aprendizaje de Conceptos Básicos de Lógica de Programación. Universidad Distrital Francisco J. C., 2017. [5] N. Salazar, G. Gorga y C. Sanz. EPRA: Herramienta para la Enseñanza de Conceptos Básicos de Programación utilizando Realidad Aumentada. Instituto de Investigación en Informática, 2015. [6] C. Flórez y F. Buriticá. Realidad Aumentada aplicada a Objetos de Aprendizaje para asignaturas de Ingeniería Informática. Politécnico Colombiano Jaime Isaza Cadavid, 2013. [7] Ministerio de Educación Nacional Colombiano. Objetos Virtuales de Aprendizaje e Informativos, 2018. [8] C. Belloch. Diseño Instruccional. Unidad de Tecnología Educativa. Universidad de Valencia, 2017. [9] J. Sánchez. Introducción a la Educación Mediática Infantil: El diseño del StoryBoard, 2011. [10] I. D. Piedra, I. E. Erana, N. Segura, A. H. Fuentes y M. V. López. Delineando Criterios para la Evaluación de Tecnología Educativa, 2018.
  • 167. 166 Modelo Instruccional Basado en Inteligencias Múltiples Xochitl de Jesus Rojas, Carmen Santiago, Yeiny Romero, Claudia Zenteno, Gustavo Rubín, Judith Pérez Facultad de Ciencias de la Computación, Benemérita Universidad Autónoma de Puebla. Av. San Claudio, Blvd. 14 Sur, CU, 72592, Pue., Pue., México xochitl.de@alumno.buap.mx, {marycarmen.santiago, yeiny.romero, ana.zenteno, gustavo.rubin, judith.perez}@correo.buap.mx Resumen. El educativo tradicional ha dejado de lado aspectos importantes como la forma en cómo aprenden los estudiantes. Por otro lado, la pandemia debido al COVID-19 ha venido a acelerar la incorporación de las TIC al proceso de E-A sin embargo la instrucción mediante materiales en línea aún deja mucho que desear sobre los verdaderos aprendizajes de los estudiantes. En el artículo se propone una metodología y un modelo instruccional que permite ofrecer recursos para el proceso E-A de estudiantes que se adecuan a la forma en cómo aprenden, considerando las inteligencias múltiples y el modelo ASSURE. El resultado un modelo instruccional que ha permitido hoy contar con una serie de recursos disponibles para los estudiantes de la materia de Metodología de la Programación de Facultad de Ciencias de la Computación. Palabras Clave: E-Learning, Modelo Instruccional, Inteligencias Múltiples, Modelo ASSURE, Plataformas en Línea. Introducción Al hablar de educación es necesario que tengamos en cuenta que los estudiantes son los que toman el papel principal y la educación no solo debe de tratarse de lo que el alumno es capaz de memorizar o puede hacer, también debe de estar centrada en cómo el estudiante es capaz de recibir el conocimiento, ¿qué puede hacer con dicho conocimiento?, ¿cómo esto le afecta a la sociedad? y ¿cómo le afecta o beneficia asimismo?, por lo tanto se establece lo siguiente: “la educación debe contribuir al desarrollo global de cada persona”, sin duda, para lograr alcanzar este objetivo se deben de considerar muchos aspectos para poder tener una educación centrada en el estudiante, algunos de estos aspectos son[1]: ● El alumno necesita un orientador, un tutor y/o un docente. ● Foros donde puede apoyarse para la mejora de su conocimiento. ● El uso de las TIC 's. ● Programas y servicios donde pueda incrementar y poner a prueba su conocimiento. Si bien es importante considerar estos aspectos, también es importante saber cómo es que el modelo educativo que se ha utilizado hasta ahora es tan plural y esto ha afectado a los estudiantes. Es claro que, si un estudiante no obtiene los conocimientos suficientes en un sistema de aprendizaje secuencial, en un futuro cuando se vea en la necesidad de utilizar sus conocimientos previos es muy posible que falle, o sea muy difícil para él obtener buenos resultados. Esto se puede dar puesto que en un sistema educativo en el que 40 alumnos o más comparten un profesor, es muy evidente, que en dicha situación se presente una amplia gama de habilidades y muy poco tiempo para tener o llevar a cabo un enfoque personalizado.[2]
  • 168. 167 Retomando un poco este último aspecto y centrándose en las diferencias de cómo aprenden los estudiantes se debe considerar la teoría de las inteligencias múltiples que son las que cada individuo desarrolla y que van de la mano de cómo aprende. La teoría de las Inteligencias Múltiples (IM) fue desarrollada por Howard Gardner en el año 1983 y se basa en la idea de que no existe una única inteligencia, sino que ésta tiene múltiples facetas que deben ser cultivadas en las aulas. Así, el autor identifica ocho tipos de inteligencia diferentes (lingüística, lógico-matemática, visual-espacial, musical, kinestésica, interpersonal, intrapersonal y naturalista).[3] Vea la tabla 1. Tabla 1. Definición de las 8 Inteligencias Múltiples de Howard Gardner. INTELIGENCIA DESCRIPCIÓN Lingüistas Tienen la capacidad de usar palabras de manera efectiva, ya sea mediante la escritura o de manera oral, por lo tanto, todas aquellas habilidades que tienen que ver con la redacción, y usos del lenguaje son realmente el fuerte de esta inteligencia. Intrapersonales Es el conocimiento de sí mismo y la habilidad para adaptar las maneras de actuar a partir de ese conocimiento, se debe de tener una imagen precisa de uno mismo. Interpersonales Es la capacidad de percibir y establecer distinciones en los estados de ánimo, las intenciones, las motivaciones, y los sentimientos de otras personas, son sensibles a las expresiones, los gestos y la voz, son buenas sus habilidades para responder de manera afectiva. lógico matemática Es aquella que tiene la capacidad para usar los números, entiende bien los esquemas y relaciones lógicas, las afirmaciones y las proposiciones, se desarrollan de una manera exitosa categorizando, clasificando y generando cálculos. corporal-kinética o Kinestésica Tienen capacidad para usar su cuerpo para expresarse, tienen facilidad para producir y transformar cosas, también tienen algunas habilidades físicas como la coordinación, equilibrio, destreza y percepción de medidas. Auditiva o musical Es la capacidad de percibir sonidos y formas musicales, tienen sensibilidad al ritmo, tonos, melodías Visual Tienen la habilidad para percibir el mundo visual, espacial, tienen sensibilidad a la temperatura, formas, espacios, relaciones entre los elementos, capacidades visuales y representación gráfica. Naturalista Tienen habilidades para la comprensión de la naturaleza, también sus habilidades para la observación, comprensión de hipótesis. Ante esto, las IM se define como: “un potencial psicobiológico para procesar información que se puede activar en un marco cultural para resolver problemas o crear productos que tienen valor para una cultura”. Si analizamos éstas, observamos la importancia que se otorga al contexto como potenciador de las capacidades de las personas. Gardner no niega el componente genético, pero insiste en que las inteligencias se pueden activar o inhibir en función de las oportunidades que se le ofrecen o se le dejan de ofrecer a un sujeto en cuestión. Estas oportunidades dependen del ambiente, la educación y la cultura, de aquí la trascendencia de la escuela, la familia y la sociedad en general para que todos los individuos puedan desarrollar al máximo sus capacidades intelectuales. Considerando la relevancia que la escuela tiene en el proceso educativo y formativo de las personas, resulta evidente que los docentes deben buscar la mejor manera de favorecer el desarrollo integral de sus alumnos. Y no cabe duda de que el hecho de trabajar las IM puede ser una buena estrategia a la hora de potenciar las capacidades de cada uno.[4] Es necesario considerar un desarrollo complementario incluyendo la educación, familia y sociedad, así como todos los aspectos que estos engloban para que el estudiante sea capaz de desarrollar todo su potencial, sin
  • 169. 168 olvidar que es necesario tener presentes las IM, puesto que esto será una pauta muy importante de cómo el individuo se desarrollará. Por otro lado, una propuesta para mejorar la educación es la implementación de la tutoría. En México, la implantación de programas de tutoría en el nivel superior atiende la necesidad de potenciar la formación integral de los estudiantes y uno de sus principales retos consiste en lograr que una proporción elevada de alumnos alcance niveles de desempeño académico favorables para culminar satisfactoriamente sus estudios en los plazos previstos. [1] Si bien la tutoría es una buena opción para la mejora educativa del alumno, no siempre resulta exitosa pues depende además de medios económicos, de docentes que verdaderamente comprenden el modelo con una formación en este sentido y principalmente de la comprensión y sensibilidad de éstos. Por la parte tecnológica, revisemos que apoyos se tienen para la educación. Inicialmente hablaremos de IBM EDUCATION el cual nos presenta una tecnología cognitiva la cual ayuda a que profesores y estudiantes mejoren sus resultados, desde el jardín de niños hasta el primer empleo. Con las soluciones y servicios de IBM EDUCATION, se puede personalizar el aprendizaje, aumentar la capacidad de investigación y optimizar las operaciones. Al conectar estos servicios a sistemas cognitivos (como IBM Watson), crearán un gran avance para la industria, que beneficiará tanto a los profesionales de la educación como a los estudiantes.[5] Los sistemas cognitivos emplean inteligencia artificial (IA) y aprendizaje automático (Machine Learning), por lo que son fundamentalmente diferentes de las computadoras que les precedieron. Mientras los equipos tradicionales deben ser programados por los seres humanos para llevar a cabo tareas específicas, los sistemas cognitivos aprenden de sus interacciones con los datos y los seres humanos, siendo capaces, en cierto sentido, de programarse así mismos para llevar a cabo nuevas tareas. En esta era cognitiva, las computadoras se adaptarán a la gente. Ellas interactúan con nosotros en formas que son más “humanas”.[6] Las modalidades educativas a distancia (EaD) y virtuales, que aprovechan el advenimiento de los dispositivos electrónicos los cuales son cada vez más poderosos y versátiles, junto con el incremento de la capacidad de almacenamiento, organización y recuperación de datos a menor costo, están permitiendo la adopción de los sistemas de educación basados en la Web, sistemas e-Learning (del inglés electronic Learning, aprendizaje electrónico) o Entornos Virtuales de Aprendizaje (EVA). Los EVA consisten en una colección de herramientas informáticas integradas que facilitan la administración del aprendizaje en línea, generando un mecanismo de entrega, seguimiento del estudiante, evaluación y acceso a los recursos.[7] Los entornos virtuales tienen la gran ventaja de que registran todas las acciones de los usuarios, generando grandes cantidades de datos, que procesándolos permiten realizar el seguimiento del proceso de enseñanza aprendizaje.[6] Éstos sistemas brindan información de cómo son usados, de esta manera, permite el estudio de los datos para hacer correcciones, o permitirles a los usuarios una mejor experiencia en el futuro, así como al profesor le puede ayudar a conocer las debilidades y fortalezas de sus alumnos. Con el enfoque de la personalización del conocimiento y priorizar la manera en cómo aprende el estudiante, se retoma el análisis de la generación de los contenidos que se le muestran al estudiante. En el modelo ASSURE se incorporan los eventos de instrucción de Robert Gagné para asegurar el uso efectivo de los medios en la instrucción, este modelo tiene sus raíces teóricas en el constructivismo, partiendo de las características concretas del estudiante, sus estilos de aprendizaje y fomentando la participación activa y comprometida del estudiante. ASSURE presenta seis fases o procedimientos:[8] 1. Analizar las características del estudiante: nivel de estudios, edad, características sociales, físicas, etc. y conocimientos previos, habilidades y actitudes. 2. Establecimiento de objetivos de aprendizaje determinando los resultados que los estudiantes deben alcanzar al realizar el curso, indicando el grado en que serán conseguidos. 3. Selección de estrategias, tecnologías, medios y materiales, más apropiado, más adecuados y que
  • 170. 169 servirán de apoyo a los estudiantes para el logro de los objetivos. 4. Organizar y desarrollar el escenario de aprendizaje que propicie el aprendizaje, utilizando los medios y materiales seleccionados anteriormente. 5. Se requiere la participación de los estudiantes mediante estrategias activas y cooperativas 6. Evaluación y revisión de la implementación y resultados del aprendizaje. Llevará a la reflexión sobre el mismo y a el diseño instruccional para mejoras que redunden en una mayor calidad de la acción formativa. Metodología El Modelo ASSURE nos permite realizar un planteamiento de un modelo instruccional cuya implementación nos requirió realizar una investigación en distintas plataformas donde actualmente se imparten cursos de diferentes niveles educativos, así como de diferentes áreas, sobre la manera de estructurar los contenidos. 2.1 Análisis de plataformas de e-learning En el análisis de las plataformas se revisaron cuatro, producto de un sondeo en donde resultaron las más usadas para la capacitación en cursos de TI online por estudiantes de la Facultad de Ciencias de la Computación, las cuales son COURSERA, UDEMY, Tutellus y Platzi. Al realizar este análisis se identificaron los siguientes puntos clave sobre la estructura de los cursos:  Introducción al curso.  Material teórico de cada tema- ejemplos prácticos de dicho material.  Prácticas para realizar, dichas prácticas no se evalúan.  Evaluación de cada material, evaluación de todo el contenido. En la mayoría de los casos el material está centrado en 4 puntos principales, los cuales constan de un video introductorio, en el cual se presenta el contenido que se mostrará al alumno, cuales se esperan que sean los conocimientos adquiridos, posterior al material de introducción se muestra material teórico de cada tema, en algunas plataformas se incluyen ejemplos al ver el material teórico, y en algunas otras se muestran ejemplos en un tercer material, el cual retoma algunos puntos a manera de ejemplo, después de ver cierta cantidad de contenido se plantean prácticas, éstas pueden ser a modo de tareas, que si bien no tienen una calificación, se pueden subir a la plataforma para que sean revisadas por otros estudiantes los cuales pueden dejar algún comentario para enriquecer su aprendizaje, estas prácticas también se pueden tomar desde una perspectiva de seguimiento, es decir, el profesor implementa dicha práctica y el estudiante va siguiendo las instrucciones, esto solo para algunas plataformas. Finalmente hablamos de la evaluación la cual en su mayoría constan de preguntas de opción múltiple y son realmente cortas puesto que no superan los 10 reactivos, estas evaluaciones se realizan al término de un tema, o al término de un bloque establecido de temas. 2.2 Propuesta del modelo para la creación del material Considerando los 4 puntos clave del análisis de las plataformas y tomando en cuenta el modelo ASSURE, sin olvidar que el estudiante es el elemento principal en el tema de educación, se definen los siguientes elementos que conforman la propuesta del modelo instruccional.  Material teórico  Ejemplos  Evaluaciones Y es que si bien, el modelo educativo que se ha seguido hasta ahora no es del todo idóneo para todos los estudiantes, con esta propuesta se pretende que el material educativo que se presente se adapte a la manera
  • 171. 170 en la que los estudiantes aprenden. Para la creación del material teórico inicialmente se considera la evaluación de la inteligencia del estudiante con el objetivo de obtener algunas de las características del tipo de aprendizaje más idóneo para él (vea el Apéndice), esto se establece teniendo en cuenta la característica del modelo ASSURE la cual nos indica analizar como el estudiante aprende, dicho planteamiento será nuestro punto de partida para el seguimiento a su aprendizaje, el modelo ASSURE resalta que hay que tener en cuenta los objetivos que se pretenden que alcance el estudiante, esto se tiene en cuenta ya que los materiales creados tienen como objetivo cumplir con el contenido del temario de la materia “Metodología de la Programación”. La selección de estrategias que se emplearon en la conformación del material están basadas en algunas de las características más relevantes de cada inteligencia, así como que cada persona no solo maneja una sola inteligencia, sino varias de ellas, finalmente la evaluación de cada una de nuestras estrategias es el punto que nos ayuda a saber si el conocimiento aprendido hasta el momento de la evaluación ha sido exitoso y, en caso de que el estudiante no tenga resultados exitosos se provee aplicarle más preguntas enfocadas a su tipo de inteligencia para así reafirmar que el contenido que le ha sido proporcionado sea el correcto o en su caso analizar la efectividad de éste. Dicho lo anterior, los materiales se clasificaron en tres grupos atendiendo a las distintas inteligencias y a las características de éstas.  En el grupo 1, tenemos a las inteligencias lingüista, intrapersonal e interpersonal, éstas se caracterizan por tener una mayor facilidad con la lectura, así como con la extracción o análisis de información, por lo que se les asoció con un material teórico a manera de lectura cuidando que la extensión sea suficiente.  En el grupo 2, tenemos a las inteligencias musical, visual y naturalista, las cuales tienen mayor habilidad para extraer información a través de materiales visuales como diagramas, videos, películas, etc., y habilidades auditivas, por lo que se les asoció con un material teórico a manera de video, para que tanto musicales, naturalistas como visuales pudieran obtener el conocimiento.  En el grupo 3, tenemos a las inteligencias kinestésica y lógico matemática, a estos tipos de inteligencias les proporcionamos información a manera de diagramas, puesto que ambas inteligencias tienen grandes habilidades para la experimentación y el análisis de problemas. 2.3 Modelo de Diseño Instruccional El modelo de diseño instruccional que se propone si bien ha sido el resultado de considerar las características y fases propias del modelo ASSURE y del análisis de la estructura de contenido en plataformas de enseñanza, se requiere que inicialmente se realice un test de inteligencias múltiples al usuario y con lo cual obtendremos información sobre cómo el alumno aprende “… capacidad específica de entrada: conocimientos previos, habilidades y actitudes” y “…los medios que serían más adecuados para aprender: texto, imágenes, video, audio, y multimedia”, que corresponden a las fase 1 y 3 del modelo ASSURE. Vea Figura 1. Posterior a dicho test, se inicia con la presentación de los contenidos 1. material teórico, 2. Ejemplos y 3. Evaluaciones, en el formato que requieren sus inteligencias más desarrolladas.
  • 172. 171 Fig. 1 Propuesta de Modelo de Diseño Instruccional 2.4 Creación del material educativo Para la construcción del contenido de un curso/asignatura usando el modelo propuesto, primero se realizó una división de los temas con apoyo de un docente del área quién cuenta con experiencia impartiendo la asignatura, por lo cual todos los temas que engloba el curso de la materia Metodología de la Programación fueron divididos en secciones, con el fin de otorgar gradualmente un material al estudiante y además se comprenda las relaciones entre los distintos conceptos de los temas. La división de contenido se puede ver en la Figura 2 y 3. BLOQUE TEMAS Bloque 1- unidad 1 1.1 Estrategias de resolución Analogía Divide y vencerás Bloque 2- unidad 1 1.2 Arquitectura funcional 1.3 Algoritmos 1.4 Variables computacionales 1.5 Operaciones aritméticas y lógicas. 1.6 Expresiones Bloque 3- unidad 1 1.7 Diagramas de flujo 1.8 Pseudocódigo 1.9 Prueba o traza del algoritmo 1.10 Estructura de secuencia Bloque 4- unidad 1 1.11 Estructura de control Condicional simple Condicional doble Condicional múltiple Bloque 5- unidad 1 1.12 Estructura de repetición Ciclos con contador Ciclos condicionales Ciclos anidados Fig. 2 División por secciones de la unidad 1.
  • 173. 172 BLOQUE TEMAS Bloque 1- unidad 2 2.1 Arreglos unidimensionales 2.2 Aplicaciones sobre arreglos unidimensionales Ordenamiento burbuja, selección e inserción Búsqueda secuencial y binaria Bloque 2- unidad 2 2.3 Manejo de cadenas Bloque 3- unidad 2 2.4 Arreglos bidimensionales Bloque 4- unidad 2 2.5 Registros Definición Acceso a registros Arreglo de registros Bloque 1- unidad 3 3. 1 Introducción 3.2 Concepto de módulo 3.3 Ventajas de modularidad 3.4 Procesos de modularización 3.5 Llamada a los módulos Bloque 2- unidad 3 3.6 Paso de parámetros Bloque 1- unidad 4 4.1 Sistema operativo Funciones principales Clasificación Bloque 2- unidad 4 4.2 Unidades de almacenamiento Bloque 3- unidad 4 4.3 Traductores e intérpretes 4.3.1 Ensambladores y macroensambladores 4.3.2 Compiladores 4.3.3. Intérpretes 4.3.4 Cargadores Bloque 4- unidad 4 4.4 Lenguaje de programación Definición Clasificación Bloque 1- unidad 5 5.1 Definición de la herramienta 5.2 Descripción de la herramienta 5.3 Uso de la herramienta Fig. 3 División por secciones de la unidad 2, 3, 4 y 5. El objetivo de proveer de materiales teóricos permite hacer llegar al alumno de un contenido necesario para la comprensión del tema o temas al que se haga referencia, este contenido es resumido y muestra los conceptos principales y esenciales de cada tema, en el mismo contenido teórico mostramos ejemplos, a diferencia de las plataformas en las que se muestran ejemplos separados del contenido teórico, lo que se pretende con esto, es que el alumno vea implementadas dichas definiciones de manera inmediata y en caso de que algo no quede claro pueda repasar el contenido teórico antes de avanzar. Los contenidos teóricos se crearon en diversos formatos a decir: videos, diagramas/esquemas y materiales de lectura. Este material se generó considerando las inteligencias múltiples y los grupos definidos en 2.2, por lo que en la tabla 2 se muestra la asociación de cada material a las inteligencias. Tabla 2. Asignación de cada material teórico correspondiente con cada inteligencia INTELIGENCIA MATERIAL
  • 174. 173 Lingüistas Lectura Intrapersonales Lectura Interpersonales Lectura lógico matemática Esquema o diagrama Kinestésica Esquema o diagrama Auditiva Video Visual Video Naturalista Video Es importante mencionar que se diseñaron 3 distintos formatos de materiales teóricos y se cuidó que todos tuvieran el mismo contenido, por lo tanto, un alumno sin importar el formato del material teórico que se le presente será capaz de responder igual que un alumno que aprende con un material de un formato distinto. Dentro del modelo propuesto se considera la evaluación, que corresponde a la fase 6 del modelo ASSURE, evaluación del aprendizaje. Además, ésta es tomada en cuenta en todas las plataformas analizadas por lo cual se consideró incorporar evaluaciones pequeñas (2 o 3 reactivos) y su realización de manera continua en nuestro modelo, de esta manera y posterior a un material teórico y ejemplos, se realiza una evaluación que permite monitorear dos cosas 1. El aprendizaje del estudiante (si ha aprendido) 2. Evaluar el contenido del tema con vía de mejoras. Para esta evaluación se construyeron bancos de preguntas, cada banco cuenta con 10 reactivos esperando aplicar reactivos distintos al alumno en caso de fallar en una evaluación. Todos los reactivos cuentan con 4 incisos y el alumno deberá de revisar con detalle para dar una respuesta correcta. Finalmente, hay que comentar que resultado de esta metodología planteada y modelo de diseño instruccional propuesto le resumimos que, se generaron los materiales listados en la tabla 3 correspondientes a la unidad 1 de la materia propuesta. Tabla 3. Material elaborado No. FORMATO DE MATERIAL 12 Videos formato mp4 11 Diagramas 11 Bancos de preguntas. Con 10 preguntas c/u Conclusiones y trabajos futuros En este trabajo enfocamos al estudiante como el actor principal en el proceso enseñanza-aprendizaje, identificando sus inteligencias múltiples y proveyendo de material de aprendizaje adecuado por lo que se espera que tenga una mejor experiencia de aprendizaje y un mayor grado de aprovechamiento en la materia de Metodología de la Programación. Adicionalmente con ello podremos abrir paso a nuevas oportunidades tanto educativas como profesionales, mejorando sus habilidades ya que cada alumno tiene una forma de aprender y que probablemente no es la que había utilizado, y por lo tanto los alumnos serán beneficiados al tener una educación dinámica y personalizada. Se esperan las primeras pruebas de ésta metodología en una plataforma propietaria y con ello procesar las evaluaciones que nos ayude a identificar áreas de oportunidad en el modelo y la metodología propuestas, así como la retroalimentación de la metodología y el proceso de optimización en los recursos didácticos
  • 175. 174 generados. Referencias [1] Romo López A., La tutoría, Una estrategia innovadora en el marco de losprogramas de atención a estudiantes, ANUIES. [2] Spencer K.: La aplicación de Malawi enseña a los alumnos del Reino Unido 18 meses de matemáticas en seis semanas. BBC, www.bbc.com/news/technology-29063614. (6 de Septiembre del 2014). Accedido el 20 Marzo del 2021. [3] Gorriz B.: Inteligencias Múltiples, https://www.academia.edu/32466588/Inteligencias_m%C3%BAltiples_Inteligencias_m%C3%BAltiples [4] Nadal Vivas B.: Las inteligencias múltiples como una estrategia didáctica para atender a la diversidad y aprovechar el potencial de todos los alumnos. Revista nacional e internacional de educación inclusiva, pp. 121-136 (2015) [5] IBM Education, IBM, https://www.ibm.com/mx-es/industries/education, Accedido el 10 de Marzo del 2021. [6] Urribari L.: Analitica del aprendizaje en un entorno virtual mediante un sistema de computación cognitiva: estudio preliminar, Educ@cion en contexto (2016) [7] Huapaya, C., Lizarralde, F., Arona, G., Vivas, J., Massa. S., Bacino, G., Rico, C. & Evans, F.. (2012). Uso de Ambientes Virtuales de Aprendizaje en la Enseñanza de la Ingeniería. Agosto 15, 2021, de Universidad Nacional de La Plata Sitio web: http://sedici.unlp.edu.ar/bitstream/handle/10915/23651/Documento_completo.pdf?sequence=1&isAllowed=y [8] Belloch, C.. (2013). Modelo ASSURE de Heinich y col.. Agosto 15, 2021, de Universidad de Valencia Sitio web: https://www.uv.es/bellochc/pedagogia/EVA4.wiki?3 Anexo Test de inteligencias múltiples Inteligencia lingüística ¿los libros son muy importantes para mí? ¿Oigo las palabras en mi mente antes de leer, hablar o escribirlas? ¿Me aportan más la radio o unas cintas grabada que la televisión o las películas? ¿Me gustan los juegos de palabras como el Scrabble, el Anagrams o el Password? ¿Me gusta entretenerme o entretener a los demás con trabalenguas, rimas absurdas o juegos de palabras? ¿En ocasiones, algunas personas me piden que les explique el significado de las palabras que utilizo (escritas u orales)? ¿En el colegio asimilaba mejor la lengua y la literatura, las ciencias sociales y la historia que las matemáticas y las ciencias naturales? ¿Aprender a hablar o leer otra lengua (inglés, francés o alemán, por ejemplo) me resulta relativamente sencillo? ¿Mi conversación incluye referencias frecuentes a datos que he leído o escuchado? ¿Recientemente he escrito algo de lo que estoy especialmente orgulloso o que me ha aportado el reconocimiento de los demás? Inteligencia lógico-matemática ¿Soy capaz de calcular operaciones mentalmente sin esfuerzo? ¿Las matemáticas y/o las ciencias figuraban entre mis asignaturas favoritas en el colegio? ¿Me gustan los juegos o los acertijos que requieren un pensamiento lógico? ¿Me gusta realizar pequeños experimentos del tipo «¿Qué pasará si...?» (por ejemplo, «¿Qué pasará si duplico la cantidad de agua semanal para regar el rosal?»)? ¿Mi mente busca patrones, regularidad o secuencias lógicas en las cosas? ¿Me interesan los avances científicos? ¿Creo que casi todo tiene una explicación racional? ¿En ocasiones pienso en conceptos claros, abstractos, sin palabras ni imágenes? ¿Me gusta detectar defectos lógicos en las cosas que la gente dice y hace en casa y en el trabajo? ¿Me siento más cómodo cuando las cosas están medidas, categorizadas, analizadas o cuantificadas de algún modo? Inteligencia visual-espacial ¿Cuándo cierro los ojos percibo imágenes visuales claras?
  • 176. 175 ¿Soy sensible al color? ¿Habitualmente utilizo una cámara de fotos o una videocámara para captar lo que veo a mi alrededor? ¿Me gustan los rompecabezas, los laberintos y demás juegos visuales? ¿Por la noche tengo sueños muy intensos? ¿En general, soy capaz de orientarme en un lugar desconocido? ¿Me gusta dibujar o garabatear? ¿En el colegio me costaba menos la geometría que el álgebra? ¿Puedo imaginar sin ningún esfuerzo el aspecto que tendrían las cosas vistas desde arriba? ¿Prefiero el material de lectura con muchas ilustraciones? Inteligencia musical ¿Tengo una voz agradable? ¿Percibo cuándo una nota musical está desafinada? ¿Siempre estoy escuchando música: radio, discos, casetes o compactos? ¿Toco un instrumento musical? ¿Sin la música, mi vida sería más triste? ¿En ocasiones, cuando voy por la calle, me sorprendo cantando mentalmente la música de un anuncio de televisión o alguna otra melodía? ¿Puedo seguir fácilmente el ritmo de un tema musical con un instrumento de percusión? ¿Conozco las melodías de numerosas canciones o piezas musicales? ¿Con sólo escuchar una selección musical una o dos veces, ya soy capaz de reproducirla con bastante acierto? ¿Acostumbro a producir sonidos rítmicos con golpecitos o a cantar melodías mientras estoy trabajando, estudiando o aprendiendo algo nuevo? Inteligencia intrapersonal ¿Habitualmente dedico tiempo a meditar, reflexionar o pensar en cuestiones importantes de la vida? ¿He asistido a sesiones de asesoramiento o a seminarios de crecimiento personal para aprender a conocerme más? ¿Soy capaz de afrontar los contratiempos con fuerza moral? ¿Tengo una afición especial o una actividad que guardo para mí? ¿Tengo algunos objetivos vitales importantes en los que pienso de forma habitual? ¿Mantengo una visión realista de mis puntos fuertes y débiles (confirmados mediante feedback de otras fuentes)? ¿Preferiría pasar un fin de semana solo en una cabaña, en el bosque, que en un lugar turístico de lujo lleno de gente? ¿Me considero una persona con mucha fuerza de voluntad o independiente? ¿Escribo un diario personal en el que recojo los pensamientos relacionados con mi vida interior? ¿Soy un trabajador autónomo o he pensado muy seriamente en la posibilidad de poner en marcha mi propio negocio? Inteligencia interpersonal ¿Soy del tipo de personas a las que los demás piden opinión y consejo en el trabajo o en el vecindario? ¿Prefiero los deportes de equipo, como el bádminton, el voleibol o el softball, a los deportes solitarios, como la natación o el jogging? ¿Cuándo tengo un problema, tiendo a buscar la ayuda de otra persona en lugar de intentar resolverlo por mí mismo? ¿Tengo al menos tres amigos íntimos? ¿Me gustan más los juegos sociales, como el Monopoly o las cartas, que las actividades que se realizan en solitario, como los videojuegos? ¿Disfruto con el reto que supone enseñar a otra persona, o grupos de personas, lo que sé hacer? ¿Me considero un líder (o los demás me dicen que lo soy)? ¿Me siento cómodo entre una multitud? ¿Me gusta participar en actividades sociales relacionadas con mi trabajo, con la parroquia o con la comunidad? ¿Prefiero pasar una tarde en una fiesta animada que solo en casa? Inteligencia kinestésica ¿Practico al menos un deporte o algún tipo de actividad física de forma regular? ¿Me cuesta permanecer quieto durante mucho tiempo? ¿Me gusta trabajar con las manos en actividades concretas como coser, tejer, tallar, carpintería o construcción de maquetas? ¿En general, las mejores ideas se me ocurren cuando estoy paseando o corriendo, o mientras realizo alguna actividad física? ¿Me gusta pasar mi tiempo de ocio al aire libre? ¿Acostumbro a gesticular mucho o a utilizar otras formas de lenguaje corporal cuando hablo con alguien? ¿Necesito tocar las cosas para saber más sobre ellas? ¿Me gustan las atracciones fuertes y las experiencias físicas emocionantes?
  • 177. 176 ¿Creo que soy una persona con una buena coordinación? ¿No me basta con leer información o ver un vídeo sobre una nueva actividad: necesito practicarla?
  • 178. 177 B-learning de Derechos Humanos Dr. Nelson Javier Cetz Canche1 , Dra. Laura López Díaz2 , Dr. Jorge Alberto Ceballos García3 1,2,3 Universidad Juárez Autónoma de Tabasco-División Académica de Ciencias y Tecnologías de la Información, Km. 1 carretera Cunduacán-Jalpa. C.P.86690. Cunduacán, Tabasco, México. {nelson.cetz, laura.lopez, jorge.ceballos,}@ujat.mx Resumen. Se considera, con toda razón, que no es posible diseñar un curso en línea con las mismas estrategias utilizadas para desarrollar un curso presencial debido a las características de aislamiento en las que se encuentran los alumnos a distancia. Sin embargo, las características esenciales de aislamiento y separación entre el profesor y el alumno tienden a desaparecer cada vez más rápidamente con el uso de las tecnologías de información y comunicación (TIC), que sirven de apoyo a la educación. Este trabajo presenta una herramienta en línea desde una plataforma virtual de aprendizaje, para apoyar al proceso formativo de los alumnos de la Licenciatura en Derecho, que cursan la asignatura de Derechos Humanos . Para el diseño instruccional se adoptó el modelo sistémico Assure, y como medio gestor del conocimiento la plataforma Moodle. Palabras claves: Diseño Instruccional, B-learning,TIC. Summary. It is considered, with good reason, that it is not possible to design an online course with the same strategies used to develop a face-to-face course due to the isolation characteristics in which distance students find themselves. However, the essential characteristics of isolation and separation between teacher and student tend to disappear more and more rapidly with the use of information and communication technologies (ICT), which support education. This work presents an online tool from a virtual learning platform, to support the training process of the students of the Bachelor of Law, who take the subject of Human Rights. For the instructional design, the Assure systemic model was adopted, and the Moodle platform as a means of managing knowledge. Keywords: Instructional design, B-learning,TIC. 1 Introducción Actualmente la mayoría de estudiantes universitarios tiene algún dispositivo móvil con conexión a Internet, estas herramientas se están convirtiendo en la primera alternativa para localizar cualquier contenido en la Red, incluyendo a los educativos. El aprendizaje móvil irrumpe con fuerza en los contextos de la educación, en donde se descubren nuevas vías de apoyo al estudio. Por un lado, se presenta como una herramienta que hace posible el aprendizaje permanente y, por otro, como un entorno virtual personalizado y cotidiano en el que la comunidad educativa se abastece de contenidos de aprendizaje. La utilización de estos dispositivos en el entorno educativo consigue que el proceso de enseñanza- aprendizaje se modifique para adaptarse a los escenarios que proporciona este entorno virtual. En consecuencia se convierten en espacios de comunicación que permiten el intercambio de información y que harían posible, según su utilización, la creación de un contexto de enseñanza y aprendizaje en el que se facilitara la cooperación de profesores y estudiantes, en un marco de interacción dinámica, a través de unos contenidos culturalmente seleccionados y materializados mediante la representación, y los diversos lenguajes que el medio tecnológico es capaz de soportar [1]. Por ello esta investigación se orientó a la asignatura: Derechos Humanos perteneciente a la Licenciatura en Derecho, y cuyo objetivo es que el estudiante conozca los derechos humanos como un marco conceptual necesario dentro de la formación social de su profesión, se identificaron algunos eventos que demandan una herramienta que apoye el proceso de aprendizaje de los alumnos, estos
  • 179. 178 son:  Bajo rendimiento académico.  Deficientes hábitos de estudio.  Insuficiente bibliografía en bibliotecas.  Motivación insuficiente por parte del profesor.  Tiempo insuficiente dedicado a la asignatura.  Deficiente manejo de estrategias de aprendizaje.  Comunicación en un solo sentido.  Grupos numerosos.  Dimensión afectivo-motivacional. Aunado a ello, la asignatura en sí presenta un contenido temático amplio. Sin embargo se ha observado que la gran mayoría de los estudiantes hacen uso de la tecnología, en particular de dispositivos móviles por lo que aprovechando esa destreza se propone incursionar en el desarrollo de una herramienta que permita el acceso a los contenidos en formatos de ergonomía computacional, lo que deriva en una participación más activa en los procesos de enseñanza-aprendizaje, y a su vez incorporadas por el docente en su quehacer, ya que éste, está llamado a realizar una función importante en el proceso enseñanza-aprendizaje. 2 Estado del arte 2.1 B-learning Es una modalidad de enseñanza en la cual el docente combina el rol tradicional de la modalidad presencial con el rol de mediador en la modalidad a distancia con uso intensivo de tecnología. Esta reversibilidad de roles le permite una mayor plasticidad estratégica y desarrollo de las habilidades y competencias docentes, ya que pone en juego, transferencias pedagógicas de una modalidad a otra. Utiliza herramientas de internet, de multimedia para las sesiones on-line e interacciones didácticas cara a cara para las de presencialidad [2]. De acuerdo con [3] los entornos virtuales, diseñados para el b-learning ofrecen las siguientes ventajas: 1. La Información en la red es variada y siempre está disponible. 2. Se usan recursos de la Web, tales como foros, chats, videoconferencias, entre otros. 3. Los contenidos que se suben a la plataforma virtual, pueden estar en diferentes formatos. 4. Fomenta el aprendizaje crítico, activo, dinámico, colaborativo, interactivo, donde participan todos los estudiantes, esto es algo que muchas veces en la modalidad presencial, no ocurre con frecuencia. 5. Cada estudiante organiza su tiempo y también da flexibilidad para conectarse a la plataforma seleccionada, en este punto hay que resaltar que el aprendizaje b-learning vence todas las limitaciones de tiempo, espacio y de otros elementos limitantes que puedan tener los estudiantes. 6. Promueve los procesos de autoevaluación y coevaluación en el estudiante. 7. El profesor siempre está dando apoyo a los estudiantes, a través de las tutorías tanto presencial como on-line.
  • 180. 179 2.2 El aprendizaje en la educación en línea En la educación en línea se centra el interés directamente sobre el estudiante y crea un currículo basado en el principio de considerar al alumno como un sujeto capaz de decidir su propio desarrollo formativo. El proceso educacional se convierte en un proceso que puede extraer y desarrollar las capacidades innatas del educando facilitando su crecimiento natural. Asimismo, es resultado de la interacción entre el sujeto cognoscente y su ambiente de aprendizaje construido bajo los cuatro pilares básicos sugeridos por la UNESCO: aprender a ser, aprender a conocer, aprender a hacer, y finalmente, aprender a vivir en armonía con los demás [4]. De acuerdo con el Diccionario de las ciencias de la educación “aprendizaje” es el proceso mediante el cual un sujeto adquiere destrezas o habilidades practicas, incorpora contenidos informativos o adopta nuevas estrategias de conocimiento y/o acción. 2.3 Nuevas tecnologías y aprendizaje colaborativo El desarrollo de las nuevas tecnologías y su utilización en el proceso educativo requiere del soporte que proporciona el aprendizaje colaborativo, para optimizar su intervención y generar verdaderos ambientes de aprendizaje que promuevan el desarrollo integral de los aprendices y sus múltiples capacidades; en este orden de ideas señalan que la instrucción basada en Web, promueve la transmisión de información y tiende a propiciar al docente como facilitador [5]. Cabe destacar que para promover el verdadero logro de experiencias de aprendizaje colaborativo, se debe partir por la constitución de pequeños grupos, entre dos y cuatro integrantes; por otra parte el lapso durante el cual se dará el trabajo conjunto, también interviene en el logro, pues aquellos que prolongan la duración de las sesiones de trabajo, tendrán oportunidad de conocerse mejor e integrarse efectivamente para generar aprendizaje, así como el desarrollo de las habilidades sociales para su exitosa inserción en el grupo. Desde el punto de vista pedagógico, las Tecnologías de Información y Comunicación representan ventajas para el proceso de aprendizaje colaborativo, en cuanto a: Estimular la comunicación interpersonal, que es uno de los pilares fundamentales dentro de los entornos de aprendizaje virtual.  Las nuevas tecnologías facilitan el trabajo colaborativo, al permitir que los aprendices compartan información.  Seguimiento del progreso del grupo, a nivel individual y colectivo.  Acceso a información y contenidos de aprendizaje.  Gestión y administración de los alumnos.  Creación de ejercicios de evaluación y autoevaluación. 3 Metodología usada Los modelos instruccionales son guías o estrategias que utilizan los instructores en el proceso de la enseñanza. Constituyen el armazón procesal sobre el cual se produce la instrucción de forma sistémica, y fundamentada en teorías del aprendizaje [6]. Para la construcción de la aplicación se adoptó el modelo sistémico ASSURE (el cual integra seis pasos que consisten en: analizar las características del estudiante; establecer estándares y objetivos
  • 181. 180 de aprendizaje; la selección de medios y materiales; utilización de los medios y materiales; la participación de los estudiantes y evaluación; revisión de la implementación y resultados del aprendizaje), en donde los alumnos visualicen los materiales en sus dispositivos móviles, facilitando el proceso de aprendizaje sin importar dónde se encuentren. Este proceso puede resumirse en seis fases generales, tal como se muestra en la Figura. 3.1 Fig. 3.1 Fases generales del Modelo ASSURE 4 Resultados experimentales Para conocer el contexto del grupo objeto y sus necesidades, se procedió a la aplicación del instrumento de cuestionario el cual nos permitió conocer su contexto y sus necesidades. De la población de estudio que lo conforman 45 alumnos, se analizaron 4 aspectos principales que son:  El tiempo extra-clase que tienen disponible para la asignatura y los tipos de contenidos más usuales en la asignatura de Derechos Humanos.  Los medios por los que se comunican para realizar actividades extra-clase, con el fin de determinar su inclinación hacia el uso de las tecnologías de información y comunicación como medio para compartir sus experiencias en diferentes contextos, y sus habilidades de operación de ellas.  Su disponibilidad de acceso a tecnologías de información, conectividad y las características de los equipos celulares a los tienen acceso.  Sus preferencias de aprendizaje, con el fin de determinar si se inclinan hacia el uso de las tecnologías. El 100% de total de la población tiene acceso a un dispositivo móvil, de los cuales 100% cuenta con servicio de internet, a su vez el 56% navega frecuentemente más de tres horas en internet al día, el 30% navega diariamente de 2 a 3 horas y el 14% navega de 1 a 2 horas al día. Así mismo, los resultados manifiestan que el 100% estiman que las herramientas móviles asociadas con la lección y práctica, impartidas por el profesor al frente es una opción para reforzar su proceso de aprendizaje; y además el 97 % están dispuestos a probar otra forma de tomar las clases de una manera más dinámica que la actual. El sistema operativo que más posee el alumnado encuestado es el Android,
  • 182. 181 correspondiente al 94%, seguido por el "Ios" con 6%. La selección de un LMS (Learning Management System) no es una decisión sencilla. Y aunque los LMS comparten un gran número de funcionalidades su filosofía de uso y posibilidades de integración son muy variadas. En esta etapa es donde se lleva a cabo la implementación de los recursos del curso, tales como los contenidos, los foros, las autoevaluaciones, las descargas de materiales, los recursos multimedia, etc. En esta fase se pueden apreciar los alcances que darán sentido a la elaboración del curso, es importante señalar la realización de las pruebas del curso antes de ponerlo en marcha ya que ellas nos permitirán corregir errores, fallas, y las carencias de las fases de análisis, diseño y desarrollo. Para la implementación de este curso se hicieron unas pruebas piloto usando una muestra pequeña de la población objetivo, [7] recomienda que la prueba se lleve a cabo con personas ajenas a la producción del desarrollo con el fin de observar la claridad en el manejo del curso, las instrucciones, estilos de presentación, etc. Así mismo a los participantes se les alentará a considerar los materiales como preliminares y a sentirse dispuestos a hacer sugerencias para su mejoramiento. El programa seleccionado para la implementación de este curso es la plataforma Moodle V 1.19.1, este es un sistema versátil, confiable, robusto y gratuito. En la Figura 4.1 se muestra una interfaz de la aplicación, con la cual el usuario puede interactuar de manera amigable y de rápido acceso a la información. Fig. 4.1 Pantalla de presentación al curso. 5 Conclusiones y trabajos futuros de investigación Se puede concluir que el modelo ASSURE aplicado en este trabajo fue sin duda una excelente herramienta para llevar a cabo la implementación del curso de derechos humanos, sin embargo cabe señalar que para el diseño de un curso en línea se requiere de la participación de un equipo multidisciplinario que permita obtener el máximo rendimiento de los recursos utilizados, así mismo se requiere especialistas en la asignatura del curso, diseñadores instruccionales y especialistas informáticos, que en conjunto diseñen, desarrollen y distribuyan los cursos. Es muy importante llevar a cabo un manejo cuidadoso del análisis y diseño. Cuanto mayor esfuerzo y tiempo se invierten en estas fases, el tiempo de desarrollo se disminuye y los errores también, reduciendo el tiempo de depuración, asegurando así un producto óptimo. Debe asegurarse que el curso que se lleve a cabo cuente con una metodología adecuada con actividades y recursos suficientes
  • 183. 182 para apoyarlo. La interfaz es fundamental en un sistema de aprendizaje en línea, si los usuarios no se sienten a gusto con su ambiente, su actitud será negativa y de poca cooperación, convirtiéndose la experiencia en una situación frustrante donde eventualmente dejarían de participar. Durante el análisis del contexto de la audiencia los alumnos demostraron tener poco o ningún conocimiento sobre las plataformas para la administración del conocimiento, por lo que se recomienda impartir un curso de inducción sobre estas plataformas, esto es con el fin de facilitar su uso y culturizar al alumno con estas nuevas tecnologías de información. Referencias [1] Fernández, A. Sistemas de mobile learning para alumnado con necesidades especiales. Granada: Universidad de Granada, recuperado el día 18 de julio de 2018 en http://hdl.handle.net/10481/30830. [2] Santiváñez, R. El Modelo de Gestión de Blended – Learning en la Universidad Los Ángeles de Chimbote de Perú. Recuperado en mayo de 2015 en : http://hdl.handle.net/123456789/1097. [3] Romero, T. Unimos Mentes, Creamos Conocimiento Libre. Ponencia presentada al VI Congreso Internacional Virtual de Educación CIVE. La Palma 2006. [3] Unesco. Hacia las Sociedades del Conocimiento. Ediciones de la UNESCO. Francia. 2017. [4] Delors, Jacques. La educación encierra un tesoro. Informe a la UNESCO de la Comisión Internacional sobre la Educación para el siglo XXI. México: Correo de la UNESCO. 2017. [5] Aprendizaje colaborativo en las redes de aprendizaje.(s.f.). Recuperado el 28 de Septiembre de 2015 en http://redescolar.ilce.edu.mx/redescolar/biblioteca/articulos/pdf/aprendizaje.pdf. [6] Cookson, Pedro S. Elementos de diseño instruccional para el aprendizaje significativo en la educación a Distancia. Hermosillo, México: Universidad para la paz. Recuperado el 26 de Noviembre de 2015 en http://www.educadis.uson.mx/ftp/elementos%20de%20diseno-230403.doc [7] Dick, W., Carey, L. The Systematic Design of Instruction. (3a ed.).Estados Unidos: Harper Collins Publisher. 1990. [8] Gate. Manual de Moodle. Recuperado el 25 de julio de 2018 en http://moodle.org/course/view.php?id=11. .
  • 185. 184 Generador de un modelo 3D a partir de fotografías utilizando como caso de prueba una tienda virtual Victor Daniel Bohórquez Toribio 1 and Nancy Ocotitla Rojas 1 1 Escuela Superior de Cómputo-IPN, Av. Juan de Dios Bátiz, esquina con Miguel Othón de Mendizabal, México, D.F., 07738. México vicbohoto@gmail.com, nanwen1@gmail.com Resumen. En el presente trabajo se expone el desarrollo de un sistema software que obtiene las medidas corporales del usuario utilizando dos fotografías de su cuerpo en dos perspectivas: frontal y lateral, para así crear un modelo 3D de una persona, este modelo puede ser empleado para una tienda virtual y así a ayudar al usuario a elegir y comprar las prendas adecuadas. Para el proceso de desarrollo se empleó el modelo de proceso en espiral, permitiendo organizar las actividades en un bucle, donde cada iteración representa un conjunto de actividades para alcanzar una meta [1]. Y se emplearon algoritmos que permitieron obtener medidas muy cercanas a las reales, con un posible error por debajo del 3.0%, por lo que el modelo 3D es una representación virtual confiable. Abstract. The following paper presents the development of a software that obtains body measurements from the user using two photographs of his whole body in two perspectives: frontal and lateral, to create a 3D model of a person, this model is used in a virtual store, so it can help the user choosing and buying the right clothes. For the development we used the spiral model, which organizes the activities in a loop, where each iteration represents a set of activities to reach a goal [1]. The implemented algorithms let us obtain very close measurements to the real ones, with a possible error below 3.0%, due to that fact, this 3D model is a trustworthy virtual representation. Palabras clave: Análisis de imágenes, Modelo 3D, Ingeniería de software. 1 Introducción En la actualidad, las empresas se ven en la necesidad de emprender en el mundo de las ventas por Internet, pues estas son una de las formas de comercio más utilizadas hoy en día [2], ya sea por comodidad, seguridad, variedad, precio o necesidad; sin embargo, en este tipo de ventas se pueden presentar ciertos problemas cuando de prendas de vestir se trata, tales como: variantes inesperadas en el producto de acuerdo a la talla, diferencias en la percepción del artículo en la tienda en línea y la vida real, entre otros; es por ello, que se necesita una manera de solventar tales problemas, debido a que muchos usuarios no son conscientes de su talla o de sus medidas corporales, siendo este uno de los principales motivos por los que las personas no adquieren prendas de vestir a través de las tiendas en línea [7]. Por esta razón, se desarrolló un sistema software que le permite al usuario obtener algunas de sus medidas corporales, tales como: altura, ancho de los hombros, ancho de la cadera, y con ello generar un modelo digital de su cuerpo. De esta manera se pretende que el usuario pueda elegir de mejor manera sus prendas, el sistema le proporcionará su talla estimada y la posibilidad de modelar prendas utilizando su modelo digital y así tener una idea más certera de cómo se ve con dicha prenda, aunado que por la situación actual a nivel mundial (pandemia), este sistema podría ser de gran ayuda para solventar las necesidades de los usuarios al comprar prendas de vestir a un determinado comercio que se oferte mediante una tienda virtual o en línea, como: la elección de la talla correcta de acuerdo a sus medidas, medirse la prenda de manera virtual para tener una idea de cómo se ve con dicha prenda. 2 Estado del Arte Se analizaron los siguientes sistemas que tienen características similares con el presente proyecto
  • 186. 185 obteniendo los siguientes resultados. 1. MySizeID. Es una aplicación móvil para sistemas operativos Android y Windows, que está orientado a la obtención de medidas corporales del usuario, las cuales se obtienen mediante un escaneo de la parte corporal a medir, esta técnica requiere del uso de la cámara del teléfono móvil y algunos sensores del mismo, tales como giroscopio, acelerómetro, sensor de proximidad y espectro de color; por esta razón, está sujeto a que el dispositivo móvil cuente con los sensores necesarios [3]. 2. Foleys. Es una aplicación web que a través de una interfaz gráfica el usuario puede ingresar los datos, como la altura, el peso y la edad; posteriormente se realiza un cálculo genérico sobre la talla correspondiente a las medidas ingresadas [4]. Los resultados son basados en una tabla de medidas y pesos, sin embargo, no se considera la estructura corporal, ni las medidas de anchura del cuerpo humano; por tanto, el resultado obtenido puede ser erróneo para algunos usuarios o puede no coincidir con las medidas de cierta marca, o bien en ciertos cortes de prendas de vestir. Los sistemas no contemplan las características de: medidas corporales, talla de ropa, modelo 3D del usuario y el modelado de prendas de vestir en el modelo 3D, sino solo algunas de estas. Debido a esto, se desarrolló un sistema software que a partir de un conjunto de fotografías de cuerpo completo de una persona se puedan adquirir las variables de altura y anchura, cuya finalidad permita crear un modelo digital del cuerpo humano en tres dimensiones y así poder utilizarlo en una tienda de ropa en línea. 3 Metodología utilizada El sistema generador de un modelo 3D a partir de fotografías utilizando como caso de prueba una tienda de virtual, emplea una arquitectura cliente-servidor y se basa en un modelo de dos capas, las cuales son: 1. Capa de presentación y 2. Capa lógica de negocio y de datos. Observe figura 1. Figura 1. Arquitectura cliente-servidor 3. 1 Arquitectura En la figura 2 se muestra la arquitectura que se empleó para el desarrollo del presente trabajo, la cual esta formada por los elementos: 1. Servidor (Back End). Se encuentra en una plataforma de servicio y funciona como una API (Interfaz de Programación de Aplicaciones) de tipo REST (Transferencia de Estado Representacional) con el objetivo de poder ser utilizado como un servicio y que este pueda complementar otros sistemas software; se encarga de responder las peticiones y los procesos requeridos por el cliente, así como de la autenticación del usuario. El servidor cuenta con un conjunto de clases para procesar las fotografías del usuario y generar las medidas del mismo. También incluye un conector a base de datos y la base de datos que se emplea para administrar los usuarios, los modelos de usuarios y las prendas del sistema. 2. Cliente (Front End). Está compuesto por un navegador web y una serie de interfaces que permiten al usuario interactuar con el sistema y el servidor, dentro de las interfaces, la interfaz de modelado 3D utiliza la librería ThreeJS para renderizar la escena y los modelos 3D solicitados.
  • 187. 186 Figura 2. Arquitectura del sistema. 3.2 Back end El servidor cuenta con las funciones básicas de CRUD (Create, Read, Update, Delete) y con varias rutas de acceso, las cuales son:  Autenticación del usuario. Permite identificar al usuario, para ello se utilizó JSON Web Tokens que permite validar cuentas o registros por una cantidad de tiempo determinada, además restringe el acceso a las rutas por usuarios no identificados.  Analizador de fotografías. Extrae las medidas del usuario, para ello recibe las fotografías frontal y lateral de la persona de la que se quiere obtener las medidas, posteriormente se aplica el algoritmo de obtención de medidas, que se puede observar en el diagrama de proceso en la figura 3. Figura 3. Diagrama de proceso para la obtención de medidas. Algoritmo: Obtención de medidas. 1. Revisar que las fotografías tengan una buena iluminación y sin sombras. 2. Convertir las fotografías a escala de grises, la binarización se beneficia en esta escala. 3. Aplicar el filtro mediana, el cual visita cada píxel de la imagen y lo reemplaza por la mediana de los píxeles vecinos, esto permite eliminar el ruido “sal y pimienta” de una imagen. De esta manera en el escenario, se tiene una imagen bien definida y sin ruido. 4. Extraer la silueta, consiste en obtener el objeto contrastado del fondo. Para ello: 4.1. Aplicar el método de Otsu, es un método de umbralización que sirve para distinguir y separar objetos dentro de una imagen, marcando el objeto en color negro o un valor 0 hablando del valor de los pixeles del objeto. 4.2. Aplicar la inversión de la imagen, cambiar el valor 0 de los pixeles a 255 y viceversa, esto para obtener un objeto blanco en un fondo negro. 4.3. Generar el borde de la silueta o contorno del usuario utilizando el método de erosión binaria, que permite erosionar un objeto y así obtener un subconjunto de pixeles del mismo. 4.4. Finalmente, se resta el objeto original y su erosión (relleno). 5. Obtener las medidas, de la siguiente manera:
  • 188. 187 2 2 5.1.Marcar los puntos a medir. Se toma como base las proporciones establecidas en el hombre de Vitruvio que establece “la proporción de que el cuerpo humano es 8 veces la cabeza” [5], y si se divide en 16 partes se podrá separar partes del cuerpo de manera exacta respetando la proporción antes establecida. Es decir, siendo la sección de los pies, la primera sección y la parte alta de la cabeza la última sección; las últimas filas de las secciones 9 y 14 corresponderán a la cadera y los hombros respectivamente, tal como se muestra en la figura 4. Teniendo esas líneas se puede medir el tamaño en pixeles tanto de manera frontal como lateral. La altura se calcula tomando la distancia en pixeles del inicio al fin de las secciones de la fotografía lateral. 5.2. Convertir pixeles a pulgadas. De acuerdo al artículo Body feateures extraction and personal size measurments [6] se utilizó para inferir las siguientes fórmulas: Para convertir el valor de los pixeles en pulgadas de manera horizontal, se utilizó la ecuación 1: 𝐻𝑜𝑟𝑖𝑧𝑜𝑛𝑡𝑎𝑙 = 𝐷𝑖𝑠𝑡𝑎𝑛𝑐𝑖𝑎 (𝑖𝑛)∗𝐴𝑛𝑐ℎ𝑜 𝑆𝑒𝑛𝑠𝑜𝑟 (𝑚𝑚) … ecuación (1) 𝐿𝑜𝑔𝑖𝑡𝑢𝑑 𝑓𝑜𝑐𝑎𝑙(𝑚𝑚)∗𝐴𝑛𝑐ℎ𝑜 𝑑𝑒 𝑖𝑚𝑎𝑔𝑒𝑛 Para convertir el valor de los pixeles en pulgadas de manera vertical, se utilizó la ecuación 2: 𝑉𝑒𝑟𝑡𝑖𝑐𝑎𝑙 = 𝐷𝑖𝑠𝑡𝑎𝑛𝑐𝑖𝑎 (𝑖𝑛)∗𝐴𝑙𝑡𝑢𝑟𝑎 𝑆𝑒𝑛𝑠𝑜𝑟 (𝑚𝑚) 𝐿𝑜𝑔𝑖𝑡𝑢𝑑 𝑓𝑜𝑐𝑎𝑙(𝑚𝑚)∗𝐴𝑙𝑡𝑢𝑟𝑎 𝑑𝑒 𝑖𝑚𝑎𝑔𝑒𝑛 … ecuación (2) 5.3. Una vez teniendo las medidas reales, se debe calcular la circunferencia de la cintura y de los hombros, para ello se utilizó las formula del perímetro de una elipse, marcada en la ecuación 3, donde C, simboliza la circunferencia: (𝐴−𝐵)2 3 2 𝐶 = (𝐴 + 𝐵) ∗ {1 + (𝐴+𝐵) } … ecuación (3) (10+√4−3(𝐴−𝐵) /(𝐴+𝐵) 5.4. Convertir pulgadas a centímetros. Se multiplica las pulgadas medidas por 2.54 para obtener las mediciones en centímetros.  Generador del modelo. Es responsable de enviar los resultados al cliente en un paquete de tipo JSON.  Imagen. Esta clase guarda todas las características y los metadatos de las imágenes que son subidas al servidor. Figura 4. Proporciones en el cuerpo humano. 3.3 Front End Para el servidor del cliente se utilizaron las librerías: React, para desarrollar componentes que permiten realizar todas las interfaces gráficas así como su lógica y Three JS, permite renderizar los modelos en el módulo modelado 3D, además los cargadores de archivos OBJ y COLLADA para generar la escena y añadir las prendas de vestir en el componente escena del mismo módulo. Dando origen a los módulos:  Contexto de React. Permite generar estados a los cuales se puede acceder desde cualquier componente que se desee. Para este sistema se declaró un contexto para manejar los estados del sistema y el token de autorización del usuario, además de realizar las peticiones a la API, todo esto se maneja mediante el módulo de estados, en el cual el componente Reducer realiza la actualización de los estados del sistema de acuerdo a las acciones que se generen al interactuar con las interfaces.  Control de estados. El sistema interactúa con el cliente mediante los estados, ya que cuando un estado cambia o se actualiza el sistema, interpreta esto como una interacción del usuario. Por eso, este módulo utiliza
  • 189. 188 el componente Reducer en el contexto, el cual realiza la actualización de los estados del sistema, de acuerdo a las acciones que se generen al interactuar con las interfaces. Además, se encarga de ejecutar las peticiones al servidor y lanzar las actualizaciones de estado mediante el componente Reducer. Y establece el estado inicial del sistema, es decir, se regresa al sistema a un estado inicial. Para generar el modelo, se requiere utilizar el módulo de estados y la interfaz de carga de fotografías, que se encargan de enviar mediante una petición POST al servidor las fotografías proporcionadas por el usuario, lanzar una alerta de la creación del modelo y ejecutar una actualización de estado del contexto.  Modelado 3D. Utiliza dos componentes principales, un componente de modelado de prendas y el componente de modelado humano, además, utiliza un estado local llamado Prendas, el cual es enviado a los dos componentes antes mencionados, ya que contiene todas las prendas que se están utilizando en la escena.  Componente de modelado de prendas utiliza el contexto para obtener las prendas disponibles para el usuario y crea un componente que se encarga de cargar todas las prendas de una parte del cuerpo y al hacer clic en la prenda, la añade al estado de prendas. Una vez que se han subido las fotografías al sistema, este responde al cliente con las medidas obtenidas en un paquete JSON, el cliente lo recibe y a partir de estas medidas genera el modelo 3D.  Componente modelado humano. Para generar el modelo 3D del usuario, se utilizan modelos genéricos, dependiendo del género del mismo, utilizando el componente modelado humano, se modifica la estructura ósea cargada en el modelo para adaptar las medidas de manera específica y adaptarse a la estructura corporal del usuario. El modelo cuenta con adaptación automática, es decir, las medidas que no se obtienen mediante el servidor API se ajustan de acuerdo a las medidas que sí se obtienen, con el fin de conseguir un modelo simétrico y anatómicamente correcto.  Creación de la escena. El módulo de modelado 3D utiliza el componente de modelado de escena, que carga los modelos de las prendas y el usuario. De esta manera utiliza un estado local para regular la cantidad de prendas dentro de la escena y renderizar el modelo del usuario y las prendas utilizadas.  Escala de prendas. Se encarga de adaptar las tallas de las prendas. El sistema calcula la talla estimada del usuario utilizando las medidas de cintura y hombros obtenidas mediante el servidor y las ingresa a una tabla de medidas establecida por la tienda o medidas genéricas propuestas por el sistema, entonces se calcula de manera independiente y específica las tallas del tronco superior e inferior, obteniendo una mejor aproximación de las tallas utilizadas por el usuario. 4 Resultados Dados las mediciones obtenidas por el sistema, se pudo realizar una comparación directa con las medidas reales de los usuarios de prueba y obtener el procentaje de error medido en las pruebas, como se puede observar en las tablas 1 y 2. Tabla 2. Porcentajes de error para 10 usuarios masculinos Error de medición en usuarios masculinos Medidas Porcentaje de error Hombros 1.690 % Cintura 1.495 % Altura 0.420 % Error Total 1.201 % Tabla 3. Porcentajes de error para 5 usuarios femeninos Error de medición en usuarios femeninos Medidas Porcentaje de error Hombros 2.850% Cintura 1.920 % Altura 1.170 %
  • 190. 189 Error Total 1.980 % Al observar los resultados mostrados en las tablas 2 y 3, se concluye que los resultados de las mediciones obtenidos por el sistema son lo suficientemente precisos para representar de manera virtual a una persona. Las mediciones calculadas son lo bastante precisas como para estimar una talla de una prenda de vestir, debido a que el error es muy bajo, no superando el 3.0% y las tallas de vestir se componen de medidas con rangos amplios para encajar en múltiples usuarios. La precisión obtenida por el sistema depende significativamente de la calidad de la imagen, así como de la correcta posición (aproximadamente 90 grados) y distancia (4 metros) de la cámara al objetivo. El sistema logra detectar de manera eficiente la silueta del usuario y las fórmulas utilizadas con los factores de ajuste utilizados logran dar aproximaciones óptimas de las medidas reales del usuario en cuestión. 5 Conclusiones y trabajo a futuro Con la culminación del presente trabajo se llegó a la conclusión de que los algoritmos utilizados para obtener las mediciones fueron los adecuados, debido a que filtran, procesan y obtienen las mediciones de cada una de las variables de manera eficaz, sin embargo implica un mayor consumo de recursos para cumplir con su propósito, aunado a que el mayor porcentaje de error obtenido en las pruebas fue de 3.0%, lo que no genera una distorsión significativa entre las medidas reales y virtuales en la talla estimada del usuario. El método de modelado resultó ser de utilidad y una confiable representación del usuario en un ambiente virtual, debido a que los modelos de prendas de vestir se ajustaron de una manera similar a la talla real. Debido a la situación actual de confinamiento, el riesgo de contagio en lugares públicos, las medidas de precaución sanitarias y las limitantes de personas reunidas en un mismo lugar, este sistema podría tener un gran impacto en el ambiente comercial, siendo de gran utilidad para realizar compras de manera virtual de prendas de vestir, ya que presenta grandes ventajas tanto para las comercializadoras de este tipo de insumos, como para los usuarios en general, ya que no se requiere asistir físicamente a un establecimiento a medir y probar la ropa, brindando un entorno confiable de mediciones y una representación óptima del entalle de las prendas en un modelo virtual con medidas reales a escalas reales, evitando exponer al usuario a riesgos contra su salud, ahorrando tiempo de transporte y reduciendo los costos de operación y venta de la tienda. Este método de modelado puede ser utilizado en múltiples aplicaciones, de simulaciones de entornos virtuales donde se requiera incluir una persona en tamaño real, los entornos de prueba son tan grandes como las aplicaciones lo requieran, por ejemplo, sistemas de virtualización, sistemas de reconocimiento corporal, aplicaciones de seguridad, entre otros. El sistema tiene la posibilidad de ser integrado a otros, gracias a que utiliza tecnologías conciliables con la gran mayoría de tecnologías actuales, incluso el sistema podría ser utilizado como servicio.
  • 191. 190 Referencias [1] Sommerville, I. (2005). Ingeniería del software (7.a ed., Vol. 4). Pearson. [2] Forbes. (2020, 20 febrero). Siguen en aumento las ventas por internet en México. Forbes México. [Online]. Disponible en: https://www.forbes.com.mx/siguen-en-aumento-las-ventas-por-internet-en-mexico/ [3] MySize. (2020, 17 diciembre). MySize. [Online]. Disponible en: https://mysizeid.com/mysizeid-app/ [4]Foleys. (s. f.). Calculadora de tallas. Foleys. [Online]. Disponible en: https://www.foleys.com.mx/calculadora-de-tallas [5] Canson, L. (s. f.). Las proporciones humanas. L’atelier Canson. [Online]. Disponible en: https://www.lateliercanson.es/dibujo-las-proporciones-humanas [6] Xiaohui, T., Peng, X., Liu, L., & Xia, Q. (2018). Automatic human body feature extraction and personal size measurement. Journal of Visual Languages and Computing, 47, 1–10. [7] Statista Research Department, (2021, 16 julio ). Razones principales para no comprar en línea en México en 2021. [Online]. Disponible en: https://es.statista.com/estadisticas/1115431/mexico-razones-para-no-comprar-en-linea/
  • 192. 191 Tarjetas de Presentación Digitales a través de Herramientas de Desarrollo Multiplataforma M.T.C. Reyna García Belmont 1 M. en A. Ma. del Consuelo Puente Pérez 2 Ing. Luis Cabrera Hernández 3 M. A. N. Adriana Puente Pérez 4 y Ing. Luis Emilio García García 5 1 2 3 4 5 Tecnológico Nacional de México/Instituto Tecnológico de Tlalnepantla, Av. Instituto Tecnológico S/N Col. La Comunidad, Tlalnepantla de Baz, Edo. de México, 54070. México reyna.gb@tlalnepantla.tecnm.mx, maria.pp@tlalnepantla.tecnm.mx, luis.ch@ tlalnepantla.tecnm.mx, adriana.pp@tlalnepantla.tecnm.mx, L15251878@tlalnepantla.tecnm.mx Resumen. La automatización inteligente para transformar un negocio crea una ventaja competitiva y sobre todo la capacidad de adaptarse rápidamente a los cambios del entorno actual para sobrevivir y prosperar. La pandemia COVID-19, ha dejado duras lecciones sobre adaptabilidad y productividad, que obliga una transformación digital que se ajuste a los objetivos del negocio con el enfoque y la visión correctos que ayuden a ser digitalmente diferente con las herramientas adecuadas, considerando con ello un cambio cultural. El presente trabajo muestra el desarrollo de una aplicación con el uso de una plataforma de servicios de contenido de código bajo como alternativa para realizar una transformación digital, minimizando con ello los costos de una codificación personalizada, pero sobre todo los largos ciclos de implementación, permitiendo incluso a los no desarrolladores manejar mejoras de procesos de baja a media complejidad haciendo que una organización dependa más de una fuerza laboral flexible y equipada. Palabras Clave: Desarrollo Multiplataforma, Framework, Tarjeta Digital, RAD 1 Introducción El problema del consumidor que enfrentan los profesionales de marketing hoy en día es cómo consumir la atención de sus destinatarios, de acuerdo con la teoría de la Economía de la Atención [1], la cual es universalmente aceptada, donde la información de ese tiempo no se compara con el flujo interminable de información que ahora fluye a través del teléfono, la computadora y las pantallas del reloj pulsera de un consumidor todos los días. Actualmente existe una Economía de Atención en la que un usuario móvil de Facebook suele dedicar 1,7 segundos a una pieza de contenido, el desafío es comprender profundamente a los consumidores y captar su atención entregando el mensaje correcto, en el canal adecuado y en el momento correcto [2]. Internet ha hecho posible que cualquier persona con un dispositivo informático y una conexión a internet publique contenido, como resultado de esto, las organizaciones en los sectores minorista de diversa índole están compitiendo por la atención de los consumidores, no solo entre sí, sino también contra todos los que tienen un smartphone y una propensión a compartir, derivando con esto la importancia de llamar la atención de los consumidores ya que de acuerdo a la estadística “What Happens in an Internet Minute in 2019? ” [3], las actividades que se realizaron en línea durante un solo minuto se muestran en la tabla 1. Medio Actividad Correo electrónico Se envían 188 millones de correos electrónicos Mensajes de texto Se envían 18,1millones de mensajes de texto Facebook y WhatsApp Se envían 41,6 millones de mensajes Twitter Se publican 456,000 tweets (mensaje publicado en Twitter que puede contener texto, fotos, GIF o video.) YouTube Se ven 4,5 millones de vídeos Snapchat Se crean 2,1 millones de Snaps
  • 193. 192 Tinder Se deslizan 1,4 millones de perfiles Tabla 3. Lo que sucede en un minuto de Internet en 2019 [3]. Como se puede observar, ante esta era digital los consumidores están cada vez más dispuestos a cambiar la forma en que compran, viajan, eligen a un empleador e incluso dónde realizan inversiones personales. El presente proyecto está referido al e-commerce y marketing digital a través del diseño de tarjetas de presentación digitales, así como la oferta de productos por medio de una aplicación multiplataforma, basado en el comportamiento del intercambio de bienes por internet y las nuevas formas en que los usuarios utilizan los medios de comunicación para adquirir un bien, servicio o producto. La atención al cliente juega un papel importante sobre cómo un cliente se siente atendido en este contexto una buena tarjeta de presentación puede lograr el éxito si se adapta a la forma de interactuar de las personas con la información más relevante de una organización de una manera sencilla [4]. 2 Estado del Arte En pleno siglo XXI vivimos rodeados de dispositivos, y éstos viven de las aplicaciones de las que disponga su sistema operativo. Cada plataforma es un mundo y los rápidamente cambiantes sistemas operativos conforman un ecosistema digital [5]. De ahí surge como requisito el desarrollo de aplicaciones multiplataforma, el cual se realiza a través de una estructura de software compuesta de componentes personalizables e intercambiables. Cuando se inicia un proyecto, se contempla el hecho de crear una aplicación, y es necesario determinar la perspectiva de diseño; ya que la diversidad de plataformas, dispositivos y características propias de cada una de ellas dificulta la creación de la App, sobre todo si se desean abarcar todos o la gran mayoría de las plataformas disponibles. Para adaptar el diseño de la App a cada dispositivo se debe considerar: tamaño de pantalla, orientación, su plataforma, versión de la plataforma, velocidad de procesamiento, cantidad de memoria, recursos de hardware, entre otros [5]. Existe una diversidad de Framework de Desarrollo de Aplicaciones Multiplataforma (web y móvil) que amplían las posibilidades de desarrollo, dentro de las más populares están: Flutter, Ionic, React Native, Xamarin, Appcelerator Titanium, jQuery Móvil, Móvil Angular UI, Weex, Corona SDK, Unity, Qt, Intel System Studio. La elección correcta del framework depende en gran parte de la planificación correcta del grupo de nuevas tecnologías, librerías y bases de datos, todo ello sin dejar de lado la escalabilidad, un buen rendimiento y un funcionamiento [6]. Para efectos de este trabajo se utilizó el Framework Ionic el cual es un kit de herramientas de interfaz de usuario de código abierto para crear aplicaciones móviles y de escritorio de alta calidad y de alto rendimiento utilizando tecnologías web (HTML, CSS y JavaScript), se centra en la experiencia del usuario frontend (controles, interacciones, gestos, animaciones) [7]. 3 Metodología Para crear el prototipo de la Tarjeta de Presentación Digital se adoptó la metodología de Desarrollo Rápido de Aplicaciones o RAD, el cual es un concepto que adopta la metodología de programación orientada a objetos y fomenta inherentemente la reutilización del software [8]. La idea principal de esta metodología es entregar aplicaciones de alta calidad, en poco tiempo y con un coste bajo de
  • 194. 193 inversión. Para implementar el modelo de RAD, hay que seguir las siguientes fases [9]: 1. Modelado de gestión 2. Modelado de datos 3. Modelado de proceso 4. Generación de aplicaciones 5. Pruebas de entrega 3.1 Modelo de Gestión Como primer paso es trazar el flujo de información entre las funciones de gestión (Fig. 1) de forma que responda a las preguntas [10]: ¿Qué información conduce el proceso de gestión?, ¿Qué información se genera?, ¿Quién la genera?, ¿A dónde va la información? y ¿Quién la proceso? Fig. 1. Modelado de Gestión de Tarjeta de Presentación Digital Así mismo se muestra en la tabla 2 algunos de los requerimientos identificados para la configuración y operación de la Tarjeta de Presentación Digital. Área Función Descripción Arquitectura de Aplicación Aplicación Tener información del modelo de datos: con las entidades y sus relaciones. Aplicación La arquitectura de la aplicación debe tener la capacidad de ser configurable. Tecnología de Desarrollo Incluir información de la tecnología de lenguajes de programación utilizados y cómo es la comunicación entre módulos y proporcionar layout de los distintos componentes técnicos. Integración de Datos Datos La aplicación debe validar todas las transacciones y proporcionar información inmediata al usuario. Archivos La aplicación debe tener la capacidad de intercambiar datos y / o archivos (importación / exportación) con otras fuentes de información. Análisis Indicar si la aplicación tiene mediciones de calidad y consistencia de los datos para ser analizados en el sistema. Conectividad Software Cliente El software orientado al cliente debe permitir la conectividad, inalámbrica o por red móvil desde un dispositivo inteligente, o desde una página web. Tabla 2. Requerimientos de Arquitectura de la Aplicación 3.2 Modelado de Datos El Modelado de datos tiene en cuenta el flujo de información definido [10]. Se definen las
  • 195. 194 características de cada uno de los objetos y las relaciones entre estos objetos, como se observa en la figura 2. Fig. 2. Modelado de Datos 3.3 Modelado de Proceso Los objetos de datos definidos en la fase de modelado de datos quedan transformados para lograr el flujo de información necesario para implementar una función de gestión (Fig. 3). La descripción del proceso se crea para añadir, modificar, suprimir, o recuperar un objeto de datos [10]. Fig. 3. Modelado de Proceso La obtención, consolidación y resguardo de datos se realizan a través de un medio de almacenamiento en la nube dependiendo el volumen de información como ayuda para futuros problemas en la implementación. 3.4 Generación de Aplicaciones El RAD asume la utilización de técnicas de cuarta generación, el proceso trabaja para volver a utilizar componentes de programas ya existentes o crear componentes reutilizables (cuando sea necesario). En todos los casos se utilizan herramientas automáticas para facilitar la construcción del software (Fig. 4).
  • 196. 195 Fig. 4. Generación de Aplicaciones La generación de aplicaciones se basa en la planificación, la cual garantiza que los recursos se coordinen adecuadamente para cumplir las especificaciones del diseño, así como minimizar el impacto en las incidencias del servicio que se presta al usuario. 3.5 Pruebas de Entrega La implementación de los procesos, actividades y funciones necesarias de la prestación del servicio de Tarjetas de Presentación Digitales se realizaron de acuerdo con las exigencias establecidas (Fig. 5): a) Registro de Usuarios b) Registro de Datos Personales c) Servicios y/o Productos Fig. 5. Pruebas realizadas en IPhone y Android a. En el módulo de Usuario muestra una tabla con todas las tarjetas disponibles. b. En la parte del Cliente, la herramienta permite tener una aplicación multiplataforma propia profesional, donde se puede plasmar lo mejor del negocio o productos en tiempo real. c. El módulo de Servicios y/o Productos es esencial ya que tiene una relevante importancia en establecer, documentar y promover con creatividad los artículos para brindar credibilidad y llamar la atención de clientes potenciales, pero sobre todo el ser visible en los buscadores. Con respecto a la prueba de funcionalidad se utilizó Page Speed Insights de Google con lo que se comprobó que la aplicación permite la omisión de inicio de sesión y muestra los datos de los productos y/o servicios para los usuarios registrados, cuenta con la opción de compartir la información por redes sociales como facebook, whatsapp, Instagram y código QR. El diseño de aplicación es funcional y disponible desde cualquier dispositivo con acceso a internet (Fig. 6). a) Aspecto Móvil b) Aspecto Ordenador
  • 197. 196 Fig. 6. Ejecución de prueba con Page Speed Insights El diseño de la aplicación utiliza la técnica de Responsive Web Design para adaptar las ventanas en diferentes dispositivos, sin embargo, se identifica la oportunidad de mejorar algunos detalles con el uso pluggins para garantizar la buena experiencia del usuario. La prueba con web.dev entregó un resultado de accesibilidad de 68 esto quiere decir que la app logra ser utilizada por el máximo número de personas, independientemente de sus conocimientos o capacidades personales e independientemente de las características técnicas del equipo utilizado (Fig. 7). Fig. 7. Análisis de rendimientos a través de web.dev Aunque el resultado no es malo, el rendimiento en el entorno móvil llega a tener niveles de retardo, que pueden ser significativos en el lado del cliente por el tiempo de respuesta y los recursos que dispone el dispositivo, dejando áreas de oportunidad para la optimización de tiempo de respuesta. 4 Resultados La aplicación realizada brinda una forma rápida, ágil para el diseño de Tarjetas de Presentación Digitales (Fig. 6) basada en una aplicación multiplataforma logrando lo siguiente: a. Estructurar una serie de diseño atractivo para los usuarios. b. Disponibilidad de servicio. c. Agilidad y adaptación al cambio. d. Mantener la información actualizada. e. Acceso inmediato y atractivo al usuario para fomentar su interés. f. Compartir fácilmente la información en las redes sociales.
  • 198. 197 Fig. 7. Aplicación de Tarjetas de Presentación Digitales Esta aplicación permite a las empresas y/o personas que tienen negocios, adaptarse a las exigencias de la situación actual. 5 Conclusiones y Trabajos Futuros La tecnología cada vez tiene un papel más importante en la vida cotidiana, este proyecto es parte de ese cambio, sin embargo, la transición aún no se ha completado, prueba de ello es que la gente sigue utilizando herramientas previas a la tecnología digital como son las tarjetas de presentación físicas, folletos, entre otras y de igual manera las siguen viendo como buenas opciones. Aplicaciones como la de “Tarjetas de Presentación Digitales” impulsa las ventas y relaciones con clientes potenciales, ayuda a las personas a mejorar la promoción de ellos mismos, de sus productos, servicios o de su negocio, es una herramienta fácil, rápida e intuitiva que agrega un plus, no busca sustituir todas las herramientas existentes, si no complementarlas y de esta forma potenciar el objetivo del usuario. Tiempos sin precedentes podría ser la palabra de moda de 2020 gracias al COVID-19, el virus ha afectado muchas facetas de nuestras vidas, incluido nuestro comportamiento de compra y sólo las empresas que han sabido adaptar rápidamente sus estrategias comerciales han prosperado. Las Tarjetas de Presentación Digitales es una estrategia que se puede emplear para encontrar nuevos clientes al ofrecer un servicio sin fisuras entre los medios de comunicación, pero sobre todo que sean de rápido desarrollo dejando atrás los desarrollos tradicionales que tienen tiempos de desarrollo muy largos. Estudios han demostrado que los clientes que tienen una experiencia excelente están más dispuestos a: ● Recomendar esa empresa en las redes sociales (83%) [11], ● Comprar más productos y servicios de esa empresa (89%) [11] y ● Desviarse de su camino para comprar en esa marca (82%) [11]. Lo anterior demuestra que el marketing no sólo es beneficioso, sino imprescindible y la transformación digital ayuda a responder a las necesidades del cliente con agilidad, centrándose en analizar que se quiere conseguir y no en cómo se va a implementar fomentando la productividad al diversificar la naturaleza del trabajo que hoy en día se está moviendo y optimizando a través de herramientas digitales. Con respecto a trabajo futuros se tiene contemplado lo siguiente:
  • 199. 198 ● La implementación de pluggins que permitan optimizar el tiempo de respuesta, el proceso de sincronización de datos y el manejo peticiones concurrentes. ● Realizar un estudio de rendimiento y escalabilidad del entorno de programación. ● Realizar un análisis comparativo con otras herramientas disponibles para el diseño de aplicaciones multiplataforma. ● Comparar estos framework con las plataformas de low-code, que a diferencia de los framework éstas son proporcionadas por un tercero con otras prestaciones que es de nuestro interés analizar. Referencias [1] S. Herbert A., «Digitalcollections,» 1971. [En línea]. Available: https://digitalcollections.library.cmu.edu/awweb/awarchive?type=file&item=33748. [Último acceso: 15 Abril 2021]. [2] A. Hutchinson, «Social Media Today,» 29 Marzo 2017. [En línea]. Available: https://www.socialmediatoday.com/social-business/why-creativity-matters-more-age-mobile-infographic. [Último acceso: 15 Abril 2021]. [3] J. Desjardins, «Visual Capitalist,» 13 Marzo 2019. [En línea]. Available: visualcapitalist.com.. [Último acceso: 18 Febrero 2021]. [4] A. Bonnet de León, J. L. Saorin, J. de la Torre-Cantero, C. Meier y E. García Marrero, «Diseño y fabricación digital de tarjetas pop-ups en entornos educativos mediante tecnologías de bajo coste,» Edutec Revista Elecrónica de Tecnología Educattiva, nº 67, pp. 48-65, 29 Marzo 2019. [5] A. Báez Ibarra, N. Arellanes Cancino y A. Sosa Perdomo, «Efectividad de la Aplicación de Metodologías Ágiles para el Desarrollo de Apps,» Revista de Sistemas Computacionales y TIC’s, vol. II, nº 6, pp. 45-66, Diciembre 2016. [6] C. Rodríguez y H. Enríquez, «Características del desarrollo en Frameworks multiplataforma para móviles,» Ingenium, Revista de la Facultad de Ingeniería, vol. 15, nº 30, pp. 101-117, 30 Septiembre 2014. [7] Rosepac, «¿Qué es Ionic?, Un espectacular framework multiplataforma,» 28 Junio 2020. [En línea]. Available: https://ciberninjas.com/ionic-framework/. [Último acceso: 23 Abril 2021]. [8] Tech Target Search DataCenter, S. A. de C.V., «Search DataCenter,» Enero 2020. [En línea]. Available: https://searchdatacenter.techtarget.com/es/definicion/Desarrollo-rapido-de-aplicaciones-o-RAD. [Último acceso: 8 Febrero 2021]. [9] M. Castro, «Incentro Spain,» 25 Diciembre 2019. [En línea]. Available: https://www.incentro.com/es- es/blog/stories/metodologia-rad-desarrollo-rapido-aplicaciones/. [Último acceso: 10 Febrero 2021]. [10] O. Arbeláez Salazar, F. A. Medina Aguirre y J. A. Chaves Osorio, «Tools for rapid development of web applications,» Scientia et Technica, nº 47, pp. 254-258, 01 Abril 2011. [11] J. Martínez, «Incentro España,» 14 Abril 2021. [En línea]. Available: https://www.incentro.com/es- es/blog/stories/ventajas-tecnologia-headless/. [Último acceso: 29 Abril 2021].
  • 200. 199 Proceso de desarrollo de software en empresas mexicanas Patricia Martínez Moreno 1 José Antonio Vergara Camacho 2 Gabriel Reyes Cruz 3 Javier Pino Herrera 4 1 Universidad Veracruzana. Facultad de Contaduría y Administración Campus Coatzacoalcos. Profesor de Tiempo Completo de la Licenciatura en Ingeniería de Software. pmartinez@uv.mx 2 Universidad Veracruzana. Facultad de Contaduría y Administración. Campus Coatzacoalcos. Profesor de Tiempo Completo de la Licenciatura en Ingeniería de Software. jvergara@uv.mx 3 Universidad Veracruzana. Facultad de Contaduría y Administración. Campus Coatzacoalcos. Matriculado en la Licenciatura en Ingeniería de Software gabreyescruz@gmail.com 4 Universidad Veracruzana. Facultad de Contaduría y Administración. Campus Coatzacoalcos. Profesor de Tiempo Completo de la Licenciatura en Ingeniería de Software. jpino@uv.mx Abstract. Software quality assurance is key to software engineering when developing a software product. However, although it is a key element in implementing the software development process, only a few companies implement it either because of inefficient management or inefficient start-up of the development process. The objective of the review was to identify good practices at each stage of software development in Mexican companies. In the development, the Systematic Literature Review was applied, from which categorized research articles from indexed journals and databases (such as IEEE, Scielo, Scopus and Redalyc) between 2015 and 2021 were evaluated and interpreted. The methodology used in this research was a qualitative approach, mainly with a descriptive and an explanatory design, in which a non-probabilistic convenience sampling of 25 companies was used. The results show the essential steps taken during the development process and among the findings are that only 14 companies specified testing their software product, 2 companies claim to use good practices with the use of standards when generating the source code and only 17 companies provide support and support material for deployment. Keywords: Process, software, best practices, quality, stages. 1 Introducción El concepto de software, tal y como lo define la IEEE std. 610 son “programas, procedimientos y documentación y datos asociados, relacionados con la operación de un sistema informático” [17]. Para 1968, Fritz Bauer define a la Ingeniería de Software como el establecimiento y uso de principios robustos de la ingeniería a fin de obtener económicamente software que sea fiable y que funcione eficientemente sobre máquinas reales [16]. En la disciplina de la Ingeniería de Software se estudia el proceso de desarrollo de software como el ente nodal para llegar y alcanzar un producto de software. Por otra parte visualizando la problemática respecto al porcentaje de proyectos de software que fracasan, según el informe anual CHAOS [18], el 66% de los proyectos de software (basados en el análisis de 50.000 proyectos a nivel mundial) terminan en fracaso parcial o total. Un análisis deficiente de los requisitos causa muchos de estos fracasos, lo que significa que los proyectos están condenados desde el principio [19][20]. La razón de ser de este trabajo de investigación tiene como finalidad responder la incógnita ¿las empresas Mexicanas aplican buenas prácticas en el proceso de desarrollo de software? A partir de la revisión sistemática de la literatura de empresas mexicanas dedicadas al desarrollo de productos de software, se analizan las etapas empleadas para concretar un producto con la mejor calidad posible. Se deja ver lo medular del proceso para la industria del software en México, las etapas que son imprescindibles para tales empresas y en caso de aplicar alguna buena práctica para el aseguramiento de la calidad del producto en cada una de las etapas de desarrollo. Cabe señalar, que esta indagación no busca señalar de manera específica a ninguna empresa sino por el contrario conocer a partir de una pequeña muestra de empresas mexicanas como se encuentran la industria del software en México con respecto al proceso de desarrollo en términos globales.
  • 201. 200 2 Etapas en el proceso de desarrollo de software Generalmente en el ciclo de vida de los proyectos de desarrollo de software aparecen las etapas de requerimientos de software, diseño, construcción, pruebas y el despliegue. Al seguir esta serie de etapas, las empresas de software pueden desarrollar software de una manera predecible y manejable. En primer lugar tenemos la etapa de obtención de requerimientos de software que tiene como propósito obtener y comprender, las necesidades y limitaciones de las partes interesadas del sistema a desarrollar, además se realiza la documentación de todo ello en una especificación de requisitos [3], [4]. Esta es una etapa crítica del proceso de software, ya que los errores en ella pueden llevar inevitablemente a inconvenientes en el diseño y la implementación del sistema. En relación con lo anterior viene el diseño o modelado del software es la etapa del ciclo de vida en la que se analizan los requisitos del software para producir una descripción de la estructura interna del software que servirá como base para su construcción [4]. En dicha etapa se define la arquitectura, los componentes, las interfaces y otras características de un sistema o componente [5]. Además en el modelado de sistemas se desarrollan modelos abstractos de un sistema, y cada modelo presenta una vista o perspectiva diferente de ese sistema [6]. El siguiente punto trata de la etapa de construcción de software donde se incluye un conjunto de tareas de codificación que lleva a la creación de un software funcional, esto a partir de la etapa anterior de diseño [4]. Se lleva a cabo la creación directa del código fuente del programa, la generación automática de código fuente que usa una representación intermedia parecida al diseño del componente que se va a construir o la generación automática de código ejecutable [7]. Otro punto es respecto a las pruebas, con estas se busca evaluar y verificar que el producto software hace lo que se supone debe hacer. Las pruebas de software consisten en la verificación de que un programa proporciona los comportamientos esperados en un conjunto limitado de casos de prueba. Las pruebas ya no deben de considerarse solo después de que se completa la fase de codificación solo con el propósito de detectar fallas. Las pruebas de software deberían ser realizadas durante todo el ciclo de vida de desarrollo y mantenimiento [4]. Por último está el despliegue, es una etapa en la que el sistema se instala en estaciones de trabajo o se hospeda como una aplicación y es accesible para otros usuarios en un estado de tiempo de ejecución. Dicha etapa consiste en una serie de actividades interrelacionadas que incluyen la liberación del software al final del ciclo de desarrollo; su configuración, su instalación en el entorno de ejecución y su activación [8]. 3 Buenas prácticas en el proceso de desarrollo de software En el proceso de desarrollo de software se suelen cometer muchos errores, los desarrolladores con más experiencia han aprendido a prevenirlos, y han proporcionado buenas prácticas que les han servido, ayudando a que futuros profesionales del área no vuelvan a cometerlos. Por lo tanto las buenas prácticas se pueden definir como un conjunto de métodos rutinarios para evitar en gran medida problemas del desarrollo de software [1]. Respecto a cuáles son algunas de las buenas prácticas que se pueden aplicar a las etapas del proceso de desarrollo, a continuación se recomiendan las fundamentales: 3.1 Buenas prácticas en los requerimientos del software Para esta etapa es necesario entender al cliente. Este normalmente tendrá que explicar lo que necesita de forma excesiva o menor de lo real [2]. Para llegar a tener una comunicación más eficiente en esta etapa, se puede lograr cambiando la comunicación de discusiones formales impulsadas por un plan a discusiones informales entre individuos [9]. Además se deben documentar claramente los requisitos del cliente y realizar un seguimiento de los cambios en estos requisitos. Se debe analizar el impacto de los cambios en el sistema antes de aceptarlos [6]. También se debe mencionar un problema común que es no hacer una separación entre los requisitos del usuario y los requisitos del sistema. “Los requisitos del usuario son declaraciones, en un lenguaje natural y con ayuda de diagramas, de los servicios que se espera que el sistema proporcione a los usuarios del sistema y las restricciones bajo las cuales debe operar”
  • 202. 201 [6]. Los requisitos del sistema son descripciones más detalladas de las funciones, los servicios y las limitaciones operativas del sistema de software [6]. Otra buena práctica es realizar un prototipo de alta y baja fidelidad. Normalmente, el prototipo sirve como mecanismo para identificar los requisitos del software. 3.2 Buenas prácticas en el diseño del software Una vez que se analizan y especifican los requisitos, el diseño es la siguiente etapa para realizar, esta es la etapa en la que se establecen las bases de la calidad. En cuanto a modelar visualmente el software se necesita una buena metodología que sea capaz de captar adecuadamente y con precisión las necesidades de los usuarios, siempre es recomendado utilizar el punto de vista de la orientación a objetos, los diagramas UML son una buena práctica para presentar las vistas estáticas y dinámicas del software, y permitir que el diseño sea más fácil de realizar de modo que tenga más eficiencia como base para la construcción [6], [10]. Los diagramas UML que se utilizan, son el diagrama de casos de uso, el diagrama de clases y el diagrama de secuencia, entre otros. 3.3 Buenas prácticas en la construcción del software En cuanto a la etapa de programación o desarrollo, aquí se lleva a cabo la generación del código a partir del diseño. Los fundamentos para llevar a cabo buenas prácticas son: minimizar la complejidad, anticipar el cambio, construcción para verificación, reutilizar, y utilizar normas durante la construcción. La aplicación de estándares de desarrollo durante la construcción ayuda a obtener eficiencia, calidad y costo de un proyecto. En los lenguajes de programación el uso de estándares son ayudas importantes para lograr una mayor seguridad. Los estándares que afectan directamente los problemas de construcción incluyen: Métodos de comunicación (por ejemplo, estándares para formatos y contenidos de documentos), estándares para lenguajes de programación en específico, estándares de codificación (por ejemplo, estándares para convenciones de nomenclatura, diseño y sangría), plataformas (por ejemplo, estándares de interfaz para llamadas al sistema operativo) [4]. Tambien es importante controlar los cambios en el software, administrar los cambios mediante un sistema de gestión de cambios. 3.4 Buenas prácticas en las pruebas del software Las pruebas de software son esenciales para la creación de productos de software de alta calidad. Dado que es una tarea costosa y difícil de gestionar, su implementación organizativa tiene que estar bien fundamentada. Algunas de las principales buenas prácticas a tomar en cuenta son: Una organización de programación no debe probar sus propios programas, todo proceso de prueba debe incluir una inspección exhaustiva de los resultados de cada prueba, examinar un programa para ver si no hace lo que se supone que tiene que hacer es sólo la mitad de la batalla; la otra mitad es ver si el programa hace lo que no se supone que tiene que hacer, una parte necesaria de un caso de prueba es la definición de la salida o resultado esperado [11], pruebas multiplataforma, y ejecución automatizada de pruebas [12]. 3.5 Buenas prácticas en el despliegue del software Entre las buenas prácticas principales para llevar a cabo un buen despliegue de software se encuentran: Lista de comprobación de implementación: Se debe anotar cada paso necesario para implementar código en los distintos entornos para crear una lista de comprobación. Esta lista garantizará que se
  • 203. 202 olvide nada. Proporcionar a los usuarios finales materiales de apoyo: Deben desarrollarse materiales de capacitación apropiados, es necesario proveer lineamientos para solución de problemas [7]. Otro punto importante para es la automatización del proceso de despliegue. Durante el despliegue de software se tienen altas probabilidades de cometer errores, debido a que en la mayoría de los casos se realiza de forma manual y son muchos pasos los que se deben de realizar. Si no se ejecutan todos los pasos necesarios en el despliegue de forma precisa, el producto software no funcionará de forma satisfactoria [13]. Otro aspecto trata la colaboración y comunicación: Se recomienda que la colaboración debe estar desconectada del proceso. Y también se recomienda que se reduzca el intercambio de correos electrónicos innecesarios en cada paso del proceso, ya que esto podría ahorrar mucho esfuerzo de comunicación [14]. La integración continua también se recomienda puesto que aporta un resultado con un código de mayor calidad y confiable para la mitigación de riesgos. Esta es una práctica que para ser aplicada correctamente, debe cumplir con ciertos requisitos como son: mantener un único repositorio del proyecto, automatizar la compilación y despliegue para que se ejecuten cada vez que el equipo haga un commit [15]. 4 Metodología Durante el desarrollo de la indagación documental, se aplicó la Revisión Sistemática de la Literatura que es básicamente una manera de evaluar e interpretar toda la investigación disponible, que sea relevante respecto de una interrogante de investigación particular, en un área temática o fenómeno de interés [21]. Por lo que, se evaluaron e interpretaron artículos de investigación categorizados en revistas indexadas y bases de datos como IEEE, ScienceDirect, Scielo, Scopus y Redalyc entre el año 2016 y 2020. La metodología aplicada fue de enfoque cualitativo principalmente con diseño descriptivo y explicativo, en la cual se usó un muestreo no probabilístico por conveniencia en donde participaron 25 empresas mexicanas. 5 Empresas Mexicanas desarrolladoras de software Se investigaron los procesos de desarrollo que utilizan, así como las etapas que consideran, ver TABLA I. Aquí vale la pena decir que la gran mayoría de empresas investigadas si muestran las etapas de su proceso de desarrollo de software pero brindan poca información detallada respecto a cada una de esas etapas. Así pues los resultados obtenidos son los siguientes: Al principio del proceso de desarrollo 20 de las 25 empresas empiezan con las etapas de requerimientos del software, mientras que las otras 5 empiezan con una planificación y después con la obtención de requerimientos. Fueron 16 empresas las que contemplan la etapa de diseño. Todas las empresas contemplan por separado la etapa de desarrollo, y lo mismo para la etapa de pruebas. También resalta una etapa para la capacitación y soporte. Y solo 17 empresas ponen como etapa el despliegue en su proceso. Así pues de lo anterior se puede afirmar que más de la mitad de las empresas mexicanas de desarrollo de software aplican las principales etapas en el ciclo de vida del software. Empresa Etapas Estado Año ACE&KBA Planificación. UI/UX. Diseño. Desarrollo. Pruebas. Monterrey 2021 Axsis Tecnología Análisis y diseño. Construcción. Integración. Implementación. Monterrey 2020 DeSoftware Planeación y arquitectura. Estimación de trabajo. Desarrollo. Fase final. Colima 2020 Espora Estudio Análisis. Diseño. Desarrollo. Pruebas. Implementación. Ciudad de México 2019
  • 204. 203 Empresa Etapas Estado Año eSystems México Recopilar información. Propuesta. Diseño. Desarrollo. Pruebas. Lanzamiento. Baja California 2020 Grupo PERTI Propuesta de solución. Análisis, diseño y especificaciones. SOW y aceptación. Pruebas de componentes tecnológicos. Construcción. Diseño UI/UX. Pruebas de integración de sistemas y unitarias. Implementación. Entrega y liberación. Ciudad de México 2020 HighBits Definición y análisis de requerimientos. Arquitectura y diseño. Desarrollo y control de cambios. Pruebas y validación. Implementación. Chiapas 2020 Imds Diseño y arquitectura. Programación. Pruebas. Documentación. Mantenimiento. Ciudad de México 2020 Integra IT Análisis. Diseño. Implementación. Pruebas. Integración. Ciudad de México 2020 Intekel Planeación. Ejecución. Pruebas. Implementación. Veracruz 2020 Itrends Diseño. Desarrollo. Explotación. Campeche 2020 Leben Software Documentación y entendimiento de necesidades. Propuesta de solución. Construcción. Implementación. Estado de México 2020 Mangoo software Consultoría. Estimación tecnológica. Plan de inversión y propuesta tecnológica. Formalización. Consultoría: Ingeniería o reingeniería. Determinación de flujos de procesos (BPMN). Maquetado tecnológico. Codificación Construcción. Pruebas (Internas, del cliente). Puesta en producción. Evolución y mantenimiento. Puebla 2020 Metodika Análisis. Arquitectura. Diseño. Soporte. Implementación. Pruebas. Desarrollo. Monterrey 2021 OK HOSTING Toma de requerimientos, conocimiento de la empresa y necesidades. Propuestas y cotizaciones. Arranque de proyecto. Entrega y pruebas de estrés. Mantenimiento. Soporte técnico. Guadalajara 2020 Q Marketing Internet Diseño. Desarrollo. Publicación. San Luis Potosí 2020 RAMSCT Plan de investigación. Desarrollo ágil. Liberación de aplicación. Ciudad de México 2020 Raxione Requerimientos. Diseño. Programación. Despliegue. Morelos 2021 Scio Requerimientos. Diseño de arquitectura. Diseño de la experiencia del usuario (UX). Desarrollo y pruebas. Michoacán 2021 Softdem Análisis de requisitos. Diseño. Análisis y diseño. Implementación y pruebas. Veracruz 2020 SOFTTIS Planificación. Codificación. Implementación. Pruebas. Liberación. Adaptación. Operatividad y supervisión del software. Ciudad de México 2020 SYE Software Passion Connect. Research. Design Think. Lean – UX. Planning. Agile DEV. Improvement. Guadalajara 2020 TASI SOFTware Identificación de requerimientos. Diseño de Software. Desarrollo de Software. Pruebas de Software. Gestión de Proyectos TI. Ciudad de México 2020 Vexilo Diagnóstico. Diseño. Desarrollo. Ciudad de México 2020 X1 México Planificación. Análisis y diseño. Implementación. Control de calidad. UAT y despliegue con una gestión y control de proyecto continua. Ciudad de México 2020 Tabla 4. Etapas del proceso de software que utilizan las empresas mexicanas. 6 Resultados Los resultados muestran que todas las empresas empiezan con una correcta comunicación para la obtención de los requisitos de las partes interesadas, y fueron pocas empresas que especificaron el uso del estándar ERS-IEEE-830 en esta etapa. Al lado de ello 9 empresas también realizan prototipos, diseño UI/UX para confirmar los requisitos con el cliente antes de la construcción. Y de los datos obtenidos solamente 14 empresas especificaron realizar las pruebas correspondientes a su producto software, 2 empresas afirman utilizar buenas prácticas con el uso de estándar al generar el código fuente, hay que mencionar que solo 2 empresas hicieron mención importante al uso de control de
  • 205. 204 cambios en sus procesos. Fueron 17 empresas las que brindan soporte y material de apoyo para el despliegue. Empresa Buenas prácticas ACE&KBA Análisis y Planificación Estratégica. Wireframe. Capacitación y documentación. Diseño UI/UX basados en estándares. Axsis Tecnología Especificación de requerimientos. Análisis y diseño de la aplicación. Casos de prueba de unidad. Pruebas de unidad. Casos de prueba de unidad. Pruebas del sistema. Pruebas de aceptación. Capacitación. DeSoftware Creación del modelo de requerimientos iniciales, creación de mockups, estructura inicial de la base de datos. Pruebas unitarias, entregas parciales al cliente para validación de funcionalidades y ajustes a los requerimientos iniciales. Instalación en el ambiente de producción y pruebas completas del sistema y capacitación. Espora Estudio Definición del problema: colaboran con el cliente para definir el problema y documentarlo. Uso de estándares para definir los requerimientos del sistema. Análisis del problema: las ideas son convertidas en prototipos funcionales. Producción: Se coloca el sistema en los servidores del cliente y se le da un monitoreo sobre los errores que hayan salido. eSystems México Comprensión de las necesidades del cliente. Creación de prototipos de la función y el diseño de estructuras. Pruebas de control de calidad. Prueba de usuario. Pruebas beta. Mantenimiento. Grupo PERTI Documento con todas las especificaciones del proyecto. Verificación de requisitos especificados de acuerdo con las tecnologías aplicadas. Aplicación de parámetros para diseño de interfaz y la experiencia del usuario. Creación de prototipos. HighBits Obtención de requerimientos con el estándar ERS-IEEE-830. Control de cambios. Prototipos alfa y beta. Imds IEEE Std. 830-1998. Documento ERS. UML. Diagrama de Entidad/Relación. Modelo cercano a la programación orientada a objetos. Integra IT Infraestructura de nube con aplicaciones con alta disponibilidad, rendimiento y tolerancia a fallos. Entendimiento del negocio, con el descubrimiento de sus procesos, estrategias y problemáticas de negocio. Intekel ISO 9001:2008. Definición de la Arquitectura del proyecto. Diseño de pantallas o mockups. Diseño del modelado de datos. Plan de pruebas. Itrends Diseño de prototipo no funcional. Resguardo y control de cambios. Todo el código fuente se guarda en repositorios privados, con la plataforma Gitlab para llevar el control de cambios y la implementación automática. Pruebas en entorno similares a los reales. Leben Software Entendimiento correcto del problema. Correcta comunicación en la obtención de requisitos. Entregables funcionales constantes. Soporte al cliente en la puesta de producción del software. Mangoo software Análisis a detalle de los procesos, departamentos y actores de los procesos a sistematizar. Maqueta tecnológica antes de la construcción. Comprobación de la correcta operación. Metodika Análisis para determinar las características de la solución revisando que cumpla con los objetivos propuestos por el cliente. Se define cómo interactuarán los diferentes componentes del sistema. Adecuación a la arquitectura requerida por el cliente. Diseño UX/UI. Uso de estándares de código mundiales cuidando la calidad del desarrollo. Hypercare durante el despliegue. Pruebas unitarias y de integración para asegurar la calidad del producto. OK HOSTING Comunicación prácticamente diaria durante todo el desarrollo del proyecto. Terminado el sistema se somete a pruebas de uso. Q Marketing Internet Identificación de las necesidades de la empresa, para ayudar a aterrizar la idea del proyecto de manera que resulte útil y funcional. RAMSCT Entendimiento de negocio, determinación de alcances funcionales. Demo visual y maquetación. Control de calidad y testing QA. Infraestructura. Documentación y manuales. Soporte productivo. Raxione Desarrollo iterativo. Diseño de UX/UI. Fábrica de pruebas. Scio Cobertura multiplataforma. Escalabilidad e inter-operatividad. Seguridad y cumplimiento. Definición de perfiles de los usuarios. Diseño de experiencia del usuario. Prototipos para realizar pruebas de usabilidad y validar diseños. Pruebas para detectar errores y problemas antes de que se publique la aplicación. Mantenimiento y soporte. Softdem Identificar casos de uso. Organizar casos de uso en grupos. Asignar requerimientos no funcionales a casos de uso. Detalle a partir de modelos de alto nivel. Diagramas de secuencia. Verificar cumplimiento de requerimientos. Análisis de robustez. Diagramas de clases. Componentes. Pruebas de sistema y aceptación basadas en casos de uso. SOFTTIS Documentación del usuario. Revisiones técnicas. Pruebas del sistema. Pruebas beta y reglas para la liberación. Definición de arquitectura de software. Reutilización de análisis. Trazabilidad de requisitos. Casos de prueba. Programar/construir la aplicación que incluya la definición de estándares de codificación. SYE Conocimiento acerca de las necesidades del negocio. Planificación de la arquitectura.
  • 206. 205 Empresa Buenas prácticas Software Passion Desarrollo de software de manera iterativa e incremental. TASI SOFTware Se capturan y describen detalladamente los requerimientos de funcionalidad y de calidad del producto que se desarrolla. Diseño de interfaz UX bajo los estándares recomendados para cada tipo de plataforma y tipo de aplicación. Pruebas digitales, pruebas de movilidad, pruebas en la nube, pruebas de datos, pruebas de seguridad, pruebas de implementación, pruebas funcionales, pruebas de rendimiento y servicios de pruebas de automatización. Vexilo Entender la visión del cliente. Desarrollo con metodologías ágiles X1 México Se garantiza que la aplicación hace lo que tiene que hacer. Se garantiza que lo hace como tiene que hacerlo. Se garantiza la seguridad de la aplicación. Se garantiza la correcta integración con terceras partes. Se garantiza el rendimiento mediante técnicas de estrés. Se garantiza la compatibilidad para los dispositivos especificados. Tabla 2. Buenas prácticas que aplican las empresas mexicanas durante el proceso de desarrollo de software. 7 Conclusiones En internet se puede aprender a desarrollar un producto software, sin embargo, esto no es algo difícil de realizar, lo difícil es crear un producto software que cumpla con una serie de buenas prácticas para que este sea de calidad. En esta investigación se afirma que más del 50% de empresas contemplan las cinco etapas importantes para el proceso de desarrollo: requerimientos de software, diseño, construcción, pruebas y despliegue, mientras que el resto contemplan el desarrollo en menos etapas. En cuanto a buenas prácticas 20 de 25 empresas realiza una correcta obtención de requerimientos que es de suma importancia porque dicha etapa es la base para el resto, también la mayoría hizo mención en la realización de pruebas. Aunque fueron pocas las empresas que hicieron mención en el uso de buenas prácticas en las etapas de despliegue y construcción. Es un hecho que las empresas que más crecen son las que más invierten en diseño y mejor lo gestionan. Los esfuerzos de desarrollo de software dan como resultado la entrega de un producto de software que satisface los requisitos del usuario. Así como las competencias distintivas de una empresa pueden ser difíciles de imitar por otras, sus mejores prácticas pueden ser difíciles de replicar de igual forma, es porque con el uso de buenas practica en el proceso de desarrollo puede aportar un gran cambio, como se hizo mención anteriormente el uso de esas prácticas es comúnmente utilizado por empresas que tienen buenos resultados. El proceso de propagar las mejores prácticas a través de una organización está lleno de desafíos, pero es un esfuerzo que bien vale la pena realizar. Referencias [1] M. G. García Sandoval, H. D. Ariza Torrado, M. Lucia Pinzón, y A. S. Flórez Fuentes, “Buenas prácticas aplicadas a la implementación colaborativo de aplicativos web “, Mundo Fesc, vol. 5, n.º 10, pp. 27-30, feb. 2016. [2] R. Noriega Martinez, El Proceso de Desarrollo de Software. North Charleston, SC: Createspace Independent Publishing Platform, 2015. [3] A. Fleischmann, Distributed systems: Software design and implementation, 1994th ed. Berlin, Germany: Springer, 1994. [4] P. Bourque and R.E. Fairley, eds., Guide to the Software Engineering Body of Knowledge, Version 3.0, IEEE Computer Society, 2014; www.swebok.org. [5] B. Bruegge and A. H. Dutoit, Object-oriented software engineering using UML, patterns, and java, 3rd ed. Upper Saddle River, NJ: Pearson, 2009. [6] I. Sommerville, Software Engineering: United States Edition, 9th ed. Upper Saddle River, NJ: Pearson, 2010. [7] R. Pressman, “Ingeniería del software: un enfoque práctico”, 7th ed. Mexico: McGraw Hill Interamericana, 2010. [8] A. Dearle, "Software Deployment, Past, Present and Future," Future of Software Engineering (FOSE '07), 2007, pp. 269- 284, doi: 10.1109/FOSE.2007.20. [9] M. Pikkarainen, J. Haikara, O. Salo, P. Abrahamsson, and J. Still, “The impact of agile practices on communication in software development,” Empir. Softw. Eng., vol. 13, no. 3, pp. 303–337, 2008.
  • 207. 206 [10] Maylawati, D. Sa’adillah, Ramdhani, M. Ali, Amin, and A. Syakur, “Tracing the linkage of several unified modelling language diagrams in software modelling based on best practices”. International Journal of Engineering & Technology (UEA), 2018. [11] G. J. Myers, T. Badgett, and C. Sandler, The art of software testing, third edition. John Wiley & Sons, 2012. [12] R. Chillarege, “Software Testing Best Practices”. IBM Research Division, 1999. [13] A. Yeja Hernández and J. Rubier Porven, “Procedure for the security of the deployment process of web applications”. Revista Cubana de Ciencias Informáticas Vol. 10, No. 2, 2016. [14] V. Mohan, L. ben Othmane and A. Kres, "BP: Security Concerns and Best Practices for Automation of Software Deployment Processes: An Industrial Case Study," 2018 IEEE Cybersecurity Development (SecDev), 2018, pp. 21-28, doi: 10.1109/SecDev.2018.00011. [15] J. Zapata, Y. Ceballos Fernando, and, “Herramientas y buenas prácticas para el aseguramiento de calidad de software con metodologías ágiles”. Revista de Investigación Desarrollo e Innovación Vol. 6, Nº. 1, págs. 73-83, 2015. [16] F. L. Bauer, Ed., Software engineering: An advanced course, 1975th ed. Berlin, Germany: Springer, 2006. [17] IEEE, IEEE Standard Glossary of Software Engineering Terminology/IEEE STD 610.12-1990. Piscataway, NJ: IEEE Publications, 1991. [18] S. Group, “The Standish Group Report - CHAOS”. Project Smart, 2014. [19] J. Z. Ruiz, “¿Por Qué Fracasan los Proyectos de Software? Un Enfoque Organizacional,” 2004. [20] Statista Research Department, “Reasons for software project failure globally 2015,” Statista.com, 2015. https://www.statista.com/statistics/627648/worldwide-software-developer-survey-project-failure/. [21] B. Kitchenham “Procedures for performing systematic reviews (TR/SE-0401 )” Retrieved from Keele, 2004. UK: http://www.inf.ufsc.br/~aldo.vw/kitchenham.pdf
  • 209. 208 Plataforma digital para Facilitar el Acceso a la Información sobre Estrategias para Reutilizar Productos Comerciales José Manuel Cuenca Lerma 1 y Angelica Valeria Morales Su 1 1 Colegio Agustín de Hipona. Carretera San Andrés, kilómetro 6 s/n, Colonia Barrio de Xico, CP. 93160, Coatzintla, Ver. México. josemanuel@lermaserver.com , angelicamorales@lermaserver.com Resumen. En el presente trabajo se diseña e implementa una plataforma digital para conocer estrategias de reutilización de productos comerciales con tan sólo enfocarlos. Dicha plataforma se desarrolla como una aplicación móvil Android que lee el código de barras de los productos y con ello recupera del servidor accesos a videos contextualizados que explican cómo darles un segundo uso. La aplicación móvil se implementa con Kotlin y el servidor con PHP y MySql. Además, la comunicación se realiza utilizando la API REST encapsulando los datos en JSON con encriptación SHA-256. La plataforma es utilizada por los estudiantes de bachillerato en el Colegio Agustín de Hipona en Coatzintla, Veracruz, México. Más del 50% de los usuarios está al menos de acuerdo en que la plataforma utiliza tecnologías conocidas, reduce los tiempos de búsqueda y presenta datos contextualizados. Por lo tanto, facilita el acceso a la información sobre estrategias para reutilizar productos. Abstract. A digital platform is designed and implemented to know strategies for the reuse of commercial products just by focusing on them. This platform is developed as an Android mobile application that reads the barcode of the products and then retrieves contextualized videos links from the server that explain how to give them a second use. The mobile application is implemented with Kotlin and the server with PHP and MySql. Furthermore, the communication is done using the REST API, encapsulating the data in JSON with SHA-256 encryption. The platform is used by high school students at Colegio Agustín de Hipona in Coatzintla, Veracruz, Mexico. More than 50% of users agree at least that the platform uses known technologies, reduces search times and presents contextualized data. Therefore, it facilitates access to information on strategies to reuse products. Keywords: Computación en la nube, Reutilización de Productos, Sistemas basados en web. Introducción Cuando dañamos a la Tierra, nos dañamos a nosotros mismos… frase de David Orr. En los últimos años se ha ido incrementando la cantidad de basura generada en México. Acorde con estadísticas oficiales [1], en nuestro país se generan aproximadamente 53.1 millones de toneladas de basura anualmente. Por ello, es considerado como el país que más residuos sólidos genera en América Latina [2]. Esto es un problema alarmante, debido a que los residuos mal tratados afectan al ecosistema y son una de las causas principales de diferentes tipos de contaminación. Para afrontar esta problemática se han implementado una gran variedad de programas gubernamentales. Por ejemplo, en la CDMX se implementa el programa Basura Cero, el cual busca mejorar las condiciones ambientales y aumentar las actividades de cultura ambiental [3]. Asimismo, desde el 2004 se ha estado fomentando a nivel mundial la implementación de hábitos de consumo orientados a Reducir, Reutilizar y Reciclar los residuos [4]. En este sentido, cada vez más empresas nacionales e internacionales están incluyendo estos hábitos en su normativa con la finalidad de reducir el impacto ambiental en sus procesos [5]. Sin embargo, en México aún no hay una infraestructura suficiente para apoyar estos programas, por lo tanto, se necesita una proyección a largo plazo donde los sectores públicos y privados se comprometan en el cuidado del medio ambiente [6]. Otro aspecto importante a mencionar es que para generar mayor conciencia en la población se han desarrollado diferentes iniciativas para fomentar la Educación Ambiental [7]. En consecuencia, se han realizado actividades colectivas de reciclaje, campañas a través de medios de comunicación
  • 210. 209 masiva, concursos científicos, entre otros [8]. Además, los paradigmas tecnológicos de vanguardia, como la computación en la nube, han tenido una contribución significativa en el proceso de transmitir información de una manera más eficiente [9]. De igual manera, los dispositivos móviles han sido de gran ayuda en este proceso debido a que se puede acceder a los datos en todo momento y en todo lugar [10]. También, cada vez más aplicaciones en la nube están optimizadas para ser multiplataforma [11]. Por lo anterior, el objetivo de este proyecto es fomentar la educación ambiental utilizando tecnologías de computación en la nube. Se trabaja en específico con la reutilización de productos para contribuir a la cultura de las “tres R”. Por ello se propone una estrategia para conocer las estrategias para reutilizar un producto comercial con tan sólo enfocarlo. Estado del Arte Para fomentar la educación ambiental se han desarrollado diferentes propuestas que tienen como objetivo transmitir la información de manera más efectiva. Por ejemplo, se han implementado agentes inteligentes para analizar las características de los estudiantes y proponer estrategias de aprendizaje personalizadas [12]. De igual manera, en [13] se han desarrollado propuestas de educación ambiental desde la perspectiva pedagógica para cumplir con los estándares de calidad del proceso de enseñanza - aprendizaje. Asimismo, se han desarrollado sistemas computacionales para fomentar este tema. En [14,15] se utiliza la realidad virtual para promover una experiencia que permita a los usuarios interactuar con el ambiente y acceder a simulaciones sobre cómo las acciones cotidianas pueden afectar al ecosistema. Las tecnologías de cómputo en la nube también han sido utilizadas para facilitar el acceso a contenido didáctico. En [16] se propone un software como servicio que permite a los estudiantes de un colegio poder acceder a material educativo y realizar exámenes para evaluar lo aprendido. Con ello, los profesores pueden identificar y apoyar a los alumnos de bajo rendimiento. En este sentido, en [17] se realiza un prototipo de una plataforma de cómputo abierta que implementa las buenas prácticas del manejo de recursos educativos acorde con la educación tecnológica moderna. Otra aportación relevante es que en [18] se proponen lineamientos para asegurar que la información se comparta de manera íntegra y segura. Por lo anterior, se constata que la manera más eficiente de almacenar y recuperar la información es utilizando software en la nube. Respecto al reconocimiento de los productos, se utiliza su código de barras [19, 20] debido a que son un identificador único. Además, en [21] estos códigos son utilizados para promover ambientes interactivos de aprendizaje donde los estudiantes tienen la oportunidad de acceder a material actualizado y mejorar sus habilidades. Metodología Utilizada En esta sección se describe el diseño e implementación de la plataforma digital. Se utiliza una arquitectura cliente - servidor donde el cliente es la aplicación móvil que utilizan los usuarios y el servidor es el artefacto de software que almacena la información. Diseño del sistema La arquitectura del sistema computacional se muestra en la figura 1. El cliente utiliza un modelo de tres capas. La capa gráfica (GUI) es con la que interactúa el usuario y muestra la información del sistema. Dicha capa se comunica con la lógica para solicitar información. Asimismo, la capa lógica hace uso de la librería ZXing para interpretar el contenido de los códigos de barras de los productos.
  • 211. 210 Para recuperar información del servidor, la capa lógica llama a la capa de comunicación. Esta última encapsula la información con la ontología JSON y la encripta mediante el estándar SHA-256 para después enviar la petición al servidor mediante el protocolo HTTPS. El servidor recibe la solicitud del cliente en la capa de comunicación. Dicha capa hace uso de la librería Php Slim para la implementación del API REST. La capa de comunicación llama a la lógica para resolver la solicitud del usuario. La capa lógica se comunica con la capa de datos para realizar las transacciones SQL con el gestor de bases de datos. Fig. 1. Arquitectura del sistema Implementación del sistema La tecnología utilizada para la implementación del sistema se muestra en la tabla 1. El cliente es una aplicación Android Nativa, sin embargo, algunos módulos son automatizados mediante tecnologías web para mostrar de una manera más eficiente la información. Dichos módulos se comunican entre JavaScript y Kotlin mediante una interfaz web para llamar a funciones nativas del sistema operativo. El servidor es web y utiliza Php para implementar sus funciones. Además, los datos son guardados en MySQL. Todas las consultas del sistema se encapsulan en procedimientos almacenados para independizar las transacciones de la base de datos y las operaciones del servidor. Cliente Servidor Back - End Kotlin, JavaScript Php Front - End XML, HTML 5, CSS3 - Encapsulamiento de datos JSON Almacenamiento de datos SQLite MySQL Plataforma de publicación Google Play Hostinger Tabla 1. Tecnología utilizada Resultados Experimentales El resultado técnico consiste en una aplicación móvil Android llamada “Un Segundo Uso” que está disponible para los dispositivos con versión del sistema 5.0 o superior. El software cumple con los estándares de publicación de Google Play, por lo tanto, ya puede ser distribuida a través de dicha tienda de aplicaciones. Al ingresar al sistema los usuarios pueden acceder a la información de sus productos mediante un motor de búsqueda o leyendo el código de barras. Enseguida se muestra una lista con la descripción del producto y se puede tener acceso a la base de datos de videos. En esta última se muestra la
  • 212. 211 descripción de cada tutorial para darle un segundo uso al producto junto con el acceso para visualizarlo. Los videos se encuentran alojados en la plataforma de YouTube (ver figura 2). Fig. 2. Capturas de Pantalla del Sistema La plataforma digital es utilizada por los alumnos de bachillerato del Colegio Agustín de Hipona en Coatzintla, Veracruz, México. Dicha institución brinda servicios educativos en la zona norte del estado de Veracruz. En el nivel medio superior se encuentran inscritos 46 estudiantes, por lo tanto, se les aplicó una encuesta después de mostrarles la funcionalidad del sistema. Se utiliza la escala Likert para estructurar la encuesta y las afirmaciones son agrupadas en tres variables para demostrar que se facilita el acceso a la información [22]: uso de tecnologías conocidas, reducción de los tiempos de búsqueda y contextualización de la información. Los resultados de la aplicación de la encuesta se muestran en la figura 3. Fig. 3. Resultados de la encuesta Conclusiones Debido a que más del 50% de los usuarios del sistema están al menos en acuerdo que la aplicación utiliza tecnologías ya conocidas, reduce los tiempos de búsqueda de información y presenta datos contextualizados. Se llega a la conclusión de que el uso de la plataforma digital facilita el acceso a información sobre estrategias para reutilizar productos comerciales.
  • 213. 212 Además, se aporta al cumplimiento de los Objetivos del Desarrollo Sostenible propuestos en la Agenda 2030 de la ONU. Específicamente en el objetivo cuarto de educación de calidad debido a que se propone una estrategia innovadora para fomentar la educación ambiental. Asimismo, en el noveno de industria, innovación e infraestructura por la razón de que se establece una plataforma para que las empresas promuevan la reutilización de sus productos. Considerando la naturaleza digital de la plataforma, el proyecto puede replicarse en otras ciudades eficientemente. Solamente se requeriría implementar más servidores por cada área geográfica para distribuir el procesamiento computacional. Como trabajo futuro se busca implementar módulos de inteligencia artificial para identificar los productos con técnicas de visión por computadora, proponer una lista de productos similares para complementar la información y establecer medios para que los usuarios puedan darles una calificación a los videos y que así estos últimos se ordenen de acuerdo a su popularidad. Agradecimientos. Se agradece a los revisores del artículo por sus contribuciones a la investigación y al Colegio Agustín de Hipona por todas las facilidades otorgadas para el diseño e implementación de la plataforma digital. Referencias [1] Gaceta de la Comisión Permanente. Medio ambiente y recursos naturales. Recuperado el 9 de agosto de 2021 en: https://www.senado.gob.mx/64/gaceta_comision_permanente/documento/98295 [2] Forbes. México es el líder en generación de residuos en América Latina: ANIPAC. Recuperado el 9 de agosto de 2021 en: https://www.forbes.com.mx/mexico-es-lider-en-generacion-de- residuos-en-america-latina-an ipac/ [3] SEDEMA. Basura Cero. Recuperado el 9 de agosto de 2021 en: https://sedema.cdmx.gob.mx/programas/programa/basura-cero [4] INECOL. Las tres R: Una opción para cuidar nuestro planeta. Recuperado el 9 de agosto de 2021 en: https://www.inecol.mx/inecol/index.php/es/transparencia-inecol/17-ciencia-hoy/413-las-tres- r-una-opcion-para-cuidar- nuestro-planeta [5] Expansión. Empresas mexicanas se suman a ”las 3R” para cuidar el ambiente. Recuperado el 9 de agosto de 2021 en: https://expansion.mx/empresas/2021/05/18/empresas-mexicanas-se-suman-a- las-3r-para-cuid ar-el-ambiente [6] López Casarín, J. Reciclaje en México. Recuperado el 9 de agosto de 2021 en: https://www.eleconomista.com.mx/opinion/Reciclaje-en-Mexico-20191030-0001.html [7] Toscana, F. La educación ambiental desde la infancia ayudará a mitigar el cambio climático. Recuperado el 9 de agosto de 2021 en: https://notipress.mx/vida/educacion-ambiental-desde-la-infancia- ayudara-a-mitigar-cambio-c limatico-8160 [8] Hernández, C. Educación, motor para los desafíos ambientales de hoy. Recuperado el 9 de agosto de 2021 en: https://www.milenio.com/content/ganan-premio-creacion-de-valor-compartido-de-nestle [9] Rioseco París, M. y Sanbueza Henríquez, S. Integración de las herramientas de “la nube” en el proceso de enseñanza - aprendizaje. Educación y Comunicación, pp. 81-95. 2014. [10]Singla, C. y Kaushal, S. Empowering education through mobile cloud computing based learning process models. 015 IEEE 3rd International Conference on MOOCs, Innovation and Technology in Education (MITE), pp. 257 - 267. 2015. [11]Jiugen, Y., Ruonan, X. y Rongrong, K. Research on interactive application of online education based on cloud computing and large data. 2017 IEEE 2nd International Conference on Big Data Analysis (ICBDA), pp. 593-596. 2017. [12]Kotova, E. E. Supporting the Process of Training Specialists in an Integrated Educational Environment. 2018 Third International Conference on Human Factors in Complex Technical Systems and Environments (ERGO)s and Environments (ERGO), pp. 140-145. 2018. [13]Bodáné Kendrovics, R. y Demény, K. The role of sustainable development in the Environmental Engineering Education. 2019 International Council on Technologies of Environmental Protection (ICTEP), pp. 143-147. 2019. [14]Yu, Z. y Lin, X. The Impact of Environmental Education with Immersive Environment on Learning Performance and Environmental Identity. 2019 First International Conference on Transdisciplinary AI (TransAI), pp. 18-21. 2019. [15]Krupnova, T., Rakova, O., Lut, A., Yudina, E., Shefer, E. y Bulanova, A. Virtual Reality in Environmental Education for Manufacturing Sustainability in Industry 4.0. 2020 Global Smart Industry Conference (GloSIC), pp. 87-91. 2020. [16]Samanthula, B. K., Mehran, M., Zhu, M., Panorkou, N. y Lal, P. Experiences Toward An Interactive Cloud-Based Learning System for STEM Education. 2020 IEEE Integrated STEM Education Conference (ISEC), pp. 1-6. 2020. [17]Xiangyan, Z. Application Study of Modern Educational Technology under Cloud Computing Platform. 2016 Eighth International Conference on Measuring Technology and Mechatronics Automation (ICMTMA), pp. 122-125. 2016.
  • 214. 213 [18]Li, D. Research on the Sharing Model of University Archives Information Resources Based on Cloud Computing. 2021 13th International Conference on Measuring Technology and Mechatronics Automation (ICMTMA), pp. 721-724. 2021. [19]Ueno, R. y Mitsugi, J. Barcode fingerprinting: Unique identification of commercial products with their JAN/EAN/UCC barcode. 2018 IEEE 4th World Forum on Internet of Things (WF-IoT), pp. 416-420. 2018. [20]Ali, A. M. y Farhan, K. A New Approach For Expansion the Throughput Capacity of the Quick Response Code. 2019 First International Conference of Computer and Applied Sciences (CAS), pp. 226-231. 2019. [21]Tretinjak, M. F. The implementation of QR codes in the educational process," 2015 38th International Convention on Information and Communication Technology, Electronics and Microelectronics (MIPRO), pp. 833-835. 2015. [22]Cuenca Lerma, J.M. y Liahut Flores, L. Diseño e Implementación de un Sistema Computacional Distribuido para Facilitar el Acceso a Información Contextualizada sobre los Niveles de Intensidad del Sonido en Tiempo Real. Tecnologías Educativas y Estrategias Didácticas, pp. 72-81. 2020.
  • 216. 215 Análisis de Ciberataques en una Ciudad Inteligente utilizando Dispositivos IoT e Industria 4.0 José Antonio Orizaga Trejo1 Cecilia Cobián Sandoval2 Tonatiuh Guadalupe Nava Razon3 Marco Antonio Pérez Cisneros4 Víctor Manuel Larios Rosillo 5 Jesús Raúl Beltrán Ramirez6 1 Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los Belenes, 45100 Zapopan, Jalisco. México jose.orizaga@academicos.udg.mx 2 Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los Belenes, 45100 Zapopan, Jalisco. México cecilia.cobian9099@alumnos.udg.mx 3 Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los Belenes, 45100 Zapopan, Jalisco. México tonatiuh.nava@alumnos.udg.mx 4 Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los Belenes, 45100 Zapopan, Jalisco. México marco.perez@cucei.udg.mx 5 Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los Belenes, 45100 Zapopan, Jalisco. México victor.larios@academicos.udg.mx 6 Universidad de Guadalajara-UDG campus CUCEA, Periférico Norte N° 799 Núcleo Universitario, Los Belenes, 45100 Zapopan, Jalisco. México raul.beltran@academicos.udg.mx Resumen. Las Tecnologías de Internet de las Cosas, Industria 4.0 favorecen la aparición y desarrollo de las Smart Cities, la Industria 4.0 hace uso de nuevos paradigmas de información y propone nuevas soluciones a un problema cada vez más complejo. Nos encontramos con la posibilidad de sufrir ataques en la red dentro de esta tecnología IoT, afectando las conexiones y el sistema debido a la saturación y exposición en términos de seguridad. Este artículo se refiere a estos conceptos, propone un proyecto de dispositivo IoT con sensores para aplicaciones específicas de la industria, y presenta un modelo con tecnología de aprendizaje automático para prevenir ciberataques mediante máquinas de soporte vectorial y el set de datos NSL-KDD. Palabras clave: Smart Cities, Ciberataques, Industria 4.0, IoT. 1. Introducción Hoy en día, en un mundo cada vez más globalizado, nos adentramos a una nueva revolución industrial, en el cual buscamos comunicarnos con todo aquello que nos pueda proporcionar información, con la cual podamos medir y mejorar nuestros procesos así como mejorarlos, más sin embargo en un nuevo panorama donde millones de dispositivos se conectan a una red que va en crecimiento de manera exponencial es muy importante no dejar pasar aquellas nuevas amenazas que buscan poder sacar beneficio o simplemente dañar así como comprometer todos aquellos dispositivos que generan información vital que nos ayudar a mejorar nuestros procesos así como informar sobre eventos o sucesos. Actualmente los ataques informáticos se han ido expandido afectando en gran medida a una gran cantidad de recursos informáticos dentro de la red global, mejor conocida como internet, la situación pandemia que el mundo cruza actualmente, llevando a muchas de nuestras actividad a llevarlas a internet, como el trabajo virtual, clases virtuales, entre otras muchas mas, un reporte por Thales Global Data Threat Report 2021 (Grupo Thales, 2021), indica que la gestión de riesgos es cada ves mas difícil, ya que casi el 50% de la empresas han experimentado ciberataque en los últimos 12 meses. Parte importante a considerar es que normalmente los dispositivos IoT utilizan protocolos de comunicación ligeros cuales no pueda dar problema en conexiones con anchos de banda limitados,
  • 217. 216 muchos de los principales tipos de ataques en dispositivos IoT son los tipos de denegación de servicios o (DDoS), por ello es necesario el desarrollo de un IDS que nos pueda ayudar en el monitoreo, así como en la mitigación de conexiones maliciosas en ciudades inteligentes donde los sensores IoT puedan estar comprometidos. 2. Estado del Arte En el 2016 Miray botnet, un ataque de tipo DDos, realizo ataques utilizando mas de 400,000 dispositivos de manera simultanea y distribuida en equipos zombi. En 2019, Kaspersky reportó un total de 105 millones de ataques a dispositivos IoT que se originan a partir de direcciones IP únicas en más de 276.000 ubicaciones esto indica que los ciberataques están creciendo exponencialmente en línea con el creciente despliegue de estos dispositivos, una pista de esto es que en 2018, se registró una cifra 7 veces inferior a la de 2019, esto es preocupante ya que los ataques están en aumento a medida que más empresas y personas implementan dispositivos con poca seguridad en sus infraestructuras de red cada día, algunos datos recopilados de honeypots nos dicen que los ataques no son muy sofisticados y que utilizan las mismas características, por lo que en este trabajo, abordamos el uso de máquinas de soporte vectorial para entrenar un algoritmo de aprendizaje automático utilizando el conjunto de datos NSL-KDD con el que queremos predecir conexiones de tipo maligno en función de las características que cada tipo de conexión puede presentar hacia Dispositivos IoT. 3. Metodologia En la figura 1, mostramos un pequeño diagrama de un modelo de conexión de un prototipo para dispositivos dispositivo IoT. Fig. 1. Diseño del prototipo de IoT. Empleamos para el entrenamiento del algoritmo, el uso del conjunto de datos NSL KDD el cual contiene 4,900,000 registros de conexiones dentro de las cuales podemos identificar 4 principales grupos de los cuales contienen 42 características, dentro de los registros podremos encontrar conexiones normales como ataques. En la tabla 1, se muestra el nombre de esta característica para cada instancia dentro de la base de datos.
  • 218. 217 No. Nombre de la característica 1 duración 2 Protocol_type 3 servicio 4 bandera 5 Src_Bytes 6 Dst_Bytes 7 tierra 8 Wrong_fragment 9 urgente 10 caliente 11 Num_Failed_logins 12 Logged_in 13 Num_compromised 14 Root_Shell 15 Su_attempted 16 Num_root 17 Num_file_creations 18 Num_shells 19 Num_acces_file 20 Num_outbound_cmds 21 Is_host_login 22 Is_guest_login 23 contar 24 Srv_count 25 Serror_rate 26 Srv_serror_rate 27 Rerror_rate 28 Same_srv_rate 29 Same_srv_rate 30 Diff_srv_rate 31 Srv_diff_host_rate 32 Dst_host_count 33 Dst_host_srv_count 34 Dst_host_same_srv_rate 35 Dst_host_diff_srv_rate 36 Dst_host_same_src_port_rate 37 Dst_host_srv_diff_host_rate 38 Dst_host_serror_rate 39 Dst_host_srv_serror_rate 40 Dst_host_rerror_rate 41 Dst_host_srv_rerror_rate 42 Normal o ataque Tabla 1. características del set de datos NSLKDD. En el set de datos NSL-KDD se encuentra cuatro clases principales en función de las características que presentan cada una de estas y se muestran en la tabla 2. Clase Subclases Probing Ipsweeep, nmap, satan U2R Buffer_overflow, perl, loadmodule, rootkit R2L ftp_write, guess_passwd, imap, multhop, phf, spy, warezclient, warezmaster Dos Back, land, neptune, pod, smurf, teardrop Tabla 2. Clases principales en el set de datos NSL-KDD. Empleamos One-Hot para convertir nuestros datos en un vector binario. Al emplear matrices de vectores binarios permitimos que el algoritmo de máquinas de soporte vectorial pueda aprovechar la información contenida en valores de categorías. E eliminamos posibles confusiones causadas por la ordinalidad. Para poder medir el performance de la detección de las intrusiones empleamos una matriz de confusión y las métricas empleadas para ellos son Accuracy, precision, recall y F1 score. 3.1 Matriz de confusión En el campo de la inteligencia artificial así como para aprendizaje automático se emplean las matriz de confusión, la cual es una herramienta que nos permitirá previsualizar el desempeño de un algoritmo; dentro de la matriz de confusión cada columna representa el numero de predicciones de cada clase, así como las filas son instancias de las clases reales, así como se presentan en la Tabla 3. Valores de predicción. Verdaderos Positivos Falsos Positivos Falsos Negativos Verdaderos Negativos Valores reales
  • 219. 218 Tabla 3. Conjunto de métricas para la matriz de confusión. 3.2 Accuracy Es el indicador de rendimiento más importante de la detección de intrusiones que se utiliza para medir el rendimiento del algoritmo de máquinas de soporte vectorial, y se obtiene con la siguiente formula. (𝑇𝑃+𝑇𝑁)/(𝑇𝑃+𝑇𝑁+𝐹𝑃+𝐹𝑁) 3.3 Precision Es la relación entre el número de anomalías correctamente clasificadas y el número de anomalías normales y correctamente clasificadas y podemos apreciar la formula para obtener este dato. (TP)/(TP + EP) 3.4 Recall Es una unidad de medida relativa del número de anomalías correctamente clasificadas al número de anomalías clasificadas de manera natural. (TP) / (TP + FN) 3.5 F1 Score F1 score es una medida estadística de la precisión de una prueba o de un individuo. F1 score = 2 (Precision * recall/ Precision + recall) 4. Resultados Se desarrolla un sistema IoT con el cual estamos obteniendo información constante donde se alimenta bases de datos constantemente, y parte importante del modelo es el modelo de machine learning entrenado en el cual se seleccionó máquinas de soporte vectorial y cuyos análisis se emplean de manera individual por cada clase. Fig. 2. Matriz de confusión aplicado a la clase Dos. Podemos ver en la matriz de confusión que nos refleja buenos resultados de predicción para la clase de tipo DOS con los verdaderos positivos así como para la detección de los verdaderos negativos con lo cual nos indica que puede detectar conexiones maliciosas y las conexiones normales, a continuación mostramos las matrices de confusión para las demás clases.
  • 220. 219 Fig. 3. Matriz de confusión aplicado a la clase Probe. En la figura 3 aplicada a la clase que representa las conexiones maliciosas de tipo Probe, notamos que para la detección de conexiones maliciosas tiene buenos resultados más sin embargo para conexiones normales no es tan bueno como en la clase de tipo Dos. Fig. 4. Matriz de confusión aplicado a la clase R2L. En la figura numero 4 nos sigue mostrando buenos resultados para los verdaderos positivos mas sin embargo para el área de los verdaderos negativos baja considerablemente. Fig. 5. Matriz de confusión aplicado a la clase U2R. Para la matriz de confusión aplicado a la clase U2R son similares los resultados como para la clase R2L. 5. Conclusiones y trabajos futuros. Los resultados obtenidos con SVM muestran que es un buen algoritmo para trabajar con aprendizaje supervisado, pero sería necesario compararlo con otros algoritmos. Notamos que el algoritmo seleccionado es bueno para el reentrenamiento en caso de actualización de amenazas así como en la escalabilidad de los datos, que son características que nos ayudaron en la selección del algoritmo, mismo que tendremos que comparar con otros algoritmos Agradecimientos. Agradecemos al Centro de Innovación de Smart-Cities de la Universidad de Guadalajara por su colaboración e instalaciones para desarrollar esta investigación.
  • 221. 220 References [1] H. Sossa, P. Rayón y J. Figueroa. Arquitectura basada en redes neuronales para el reconocimiento de rostros. Soluciones Avanzadas. Año 7, No. 63. Noviembre 1998. [2] P. Rayón and H. Sossa. A procedure to select the vigilance threshold for the ART2 for supervised and unsupervised training. LNAI 1793, pp. 389-400, Springer Verlag, 2000. [3] G.A. Carpenter and S. Grossberg, ART2: self-organizing of stable category recognition codes for analog input patterns. Applied Optics, 26, pp. 4919-4930, 1987. [4] R. Schalkoff, Pattern Recognition: statistical, structural and neural approaches. John Wiley & Sons, Inc., 1992. [5] J. A. Freeman and D. M. Skapura, Neural Networks: algorithms, applications and programming techniques. Addison Wesley, 1992. [6] A. S. Pandya and R. B. Macy, Pattern Recognition with Neural Networks in C++. IEEE Press, 1995. [7] G. Francis, The stability-plasticity dilemma in competitive learning. Department of Psychology Sciences. Purdue University. Technical Report No. 96-1, 1996. [8] C. G. Looney, Pattern Recognition using Neural Networks. Oxford University Press, 1999. [9] Khalid Saeed et. Al Progress in Advanced Computing and Intelligent Engineering. India, Springer, 693 pp.
  • 222. 221 Ciencia de datos y predicción para el análisis del futuro climático Silvia Soledad Moreno Gutiérrez 1 , Mónica García Munguía 2 and José Luis Alvarado Reséndiz 3 1 Universidad Autónoma del Estado de Hidalgo- Escuela Superior de Tlahuelilpan, Av. Universidad SN, Centro, Tlahuelilpan, Hgo., 42780. México silviam@uaeh.edu.mx 2 Universidad Autónoma del Estado de Hidalgo- Escuela Superior de Tlahuelilpan, Av. Universidad SN, Centro, Tlahuelilpan, Hgo., 42780. México monicagm@uaeh.edu.mx 3 Universidad Autónoma del Estado de Hidalgo- Escuela Superior de Tlahuelilpan, Av. Universidad SN, Centro, Tlahuelilpan, Hgo., 42780. México jose_alavarado4225@uaeh.edu.mx Resumen. La baja radiación solar es atribuida a la intensa variabilidad climática que ha provocado pérdidas cuantiosas a los agricultores y ha obligado a abandonar algunos cultivos básicos por alternativas de menores requerimientos. Países de Latinoamérica esperan la disminución en la humedad de los suelos conduciendo a una intensificación de los procesos de desertificación y degradación de los mismos, con el consecuente descenso en la productividad agrícola. Se requiere de nuevos procesos para predecir las condiciones de la radiación solar y evitar el daño al cultivo a través de técnicas de ciencia de datos con la metodología CRISP-M. El trabajo se desarrolló a través del análisis del comportamiento de las variables climáticas históricas, una RNA con funciones de base radial para predicción de radiación solar, considerando datos climáticos de Europa. La precisión fue alta del 90% Abstract Droughts are attributed to climate change that has forced many farmers to abandon corn cultivation for alternatives with less water requirements. Latin American countries expect a decrease in soil moisture, leading to an intensification of desertification and degradation processes, with the consequent decrease in agricultural productivity. New processes are required to predict the conditions of solar radiation and avoid damage to the crop through data science techniques with the CRISP-M methodology. The work was developed through the analysis of the behavior of the historical climatic variables, an ANN with radial base functions for prediction of solar radiation, considering climatic data from Europe. Accuracy was high 90%. Keywords: Climate change, Data science, Neural networks. 1 Introduction En el mundo las condiciones climáticas desfavorables han ocasionado grandes pérdidas de rendimiento y calidad de cultivos básicos, por ello, constituyen un problema grave debido a la importancia de estos alimentos en la dieta básica de los seres humanos, además de esta situación adversa, han afectado directamente la economía de las familias de los pequeños agricultores. Estas pérdidas han sido resultado de la falta de información oportuna y de la alta incertidumbre que para los trabajadores del campo representa el aspecto climático, enfáticamente hablando de la baja radiación solar misma que obstaculiza el sano desarrollo de los cultivos [4]. Pese a la magnitud del problema, hoy en día son escasas las estrategias tecnológicas de predicción eficaz ante el panorama futuro que expresan los diferentes factores climáticos [5]. Las altas temperaturas tienen efectos adversos sobre las plantas [6], este factor combinado con días nublados da lugar a niveles bajos de radiación solar, en el caso de permanecer estas condiciones durante días consecutivos, el daño irreparable se verá reflejado en el bajo rendimiento y la calidad de los cultivos, así como en el daño cada vez mayor sobre los ingresos de las familias agrícolas [5]. Luego de realizar un análisis de la literatura, no se encontraron propuestas para a predecir radiación solar alta o baja orientada a cultivos de cereales básicos. Por lo anterior, el presente trabajo expone un sistema predictor de radiación solar y sus efectos sobre el crecimiento de cultivos básicos, para reducir la incertidumbre y el volumen de perdidas, mediante
  • 223. 222 la aplicación de aprendizaje automático y ciencia de datos. 2 Estado del Arte Según [2] México por estar ubicado en el trópico de cáncer confirma su alta vulnerabilidad ante el cambio climático debido a las variaciones de temperatura y del nivel del mar, además del deshielo registrado en las últimas décadas en el hemisferio norte. En América, el sector agrícola ha sido fuertemente afectado por el fenómeno y episodios de baja radiación solar; en el caso de los cultivos básicos los cuales demandan de manera urgente el desarrollo de estrategias de apoyo a la toma de decisiones, también han sido vulnerados y dañados por la insuficiente radiación [5]. Los factores climáticos extremos y sus cambios inesperados han ocasionado cambios en el desarrollo de las planta, el incremento de temperatura por ejemplo origina una mayor acumulación de grados- día de desarrollo, tanto por incremento de temperaturas diurna como nocturna, este hecho reducirá el ciclo de madurez de la planta, siendo más crítico en zonas tropical y subtropical, de forma similar, la baja radiación solar provocará anomalías en el desarrollo y en la calidad de las semillas, en el caso de los cereales básicos [10]. En México se han desarrollado estudios sobre el cambio climático y su impacto en la agricultura, pero no así las alternativas para afrontarlo, hoy en día, no se ha logrado la adaptación de los cultivos a pesar del amplio número de propuestas disponibles por lo que no ha sido posible afrontar el problema climático de manera suficiente que se logre alcanzar la autosuficiencia alimentaria en el país [3] En el sector agrícola se han desarrollado sistemas de predicción de rendimiento de frutas aplicando técnicas de aprendizaje automático tales como las redes neuronales artificiales (RNA), esto se logró a través del análisis de temperaturas extremas y del análisis de los atributos de las plantas en un ambiente controlado, la precisión de la propuesta alcanzó el 93%. Otra propuesta de apoyo han sido los modelos de simulación de cultivos diseñados con el apoyo de técnicas estadísticas de regresión múltiple orientados a simular el desarrollo de cultivos de diversos cereales y predecir anomalías del desarrollo, esto a partir de condiciones climáticas en espacios controlados, estos sistemas predicen daños en cultivos y en algunos casos expresan deficiencias o fallas al analizar algunos países y exigen grandes cantidades de registros, sin embargo., su uso es amplio en el estudio del desarrollo de los cereales básicos [11]. La predicción de la radiación solar ha sido una tarea requerida en diversos espacios y con diversos objetivo, tales como la agricultura y la medicina, esto dada la importancia y efecto que su ausencia o exceso representa para los objetivos establecidos en cada área del conocimiento [8]. Por su parte, [7] desarrollaron un predictor de radiación solar mediante aprendizaje automático aplicando técnicas tradicionales y de aprendizaje profundo con el objetivo de reducir la incertidumbre relacionada y evitar daño al cultivo, aplicaron técnicas estadísticas de ciencia de datos y los resultados fueron favorables y contribuyen a afrontar el efecto del cambio climático, aunque no en el sector productor de cereales. Un sistema basado en conocimiento fue también desarrollado para alcanzar objetivos de predicción de la radiación solar aplicando técnicas de Inteligencia Artificial [9], sin embargo, las técnicas estadísticas también han dado resultados de alta precisión [8]. 3 Metodología aplicada Se siguió la metodología de ciencia de datos CRISP-M (Cross Industry Standard Process for Data Mining) [12], que consiste en los pasos que a continuación se exponen.
  • 224. 223 3.1. Entendimiento de los datos La información provine de kaggle.com, espacio disponible a través de internet donde un equipo de profesionistas se dedica a recopilar información y a construir bancos de datos de diversas áreas del conocimiento, disponibles para los usuarios interesados, a su vez, ellos efectúan análisis de tendencias de uso. Esta recopilación se efectuó durante el mes de abril con el apoyo de 175 personas que apoyaron. 3.1.2. Descripción de datos Se contó con un total de 32,686 registros climáticos minuto a minuto del año 2016 y posteriores provenientes de estaciones meteorológicas ubicadas en cada región de países europeos, los datos incluidos en formato csv de tipo numérico son:  radiación  temperatura  presión  humedad  velocidad  dirección_del_viento 3.1.3. Exploración de datos Durante este análisis, con el objetivo de lograr un mejor conocimiento de los datos para posterior transformación se realizó un análisis estadístico de cada variable, al inicio se observó amplia dispersión en algunas variables como: la variable objetivo, la dirección del viento y la humedad. A través del histograma de cada variable, se observó una distribución cercana a la uniforme en las variables: temperatura, la presión se desplaza a la izquierda y de forma más marcada la humedad, la velocidad se encuentra desplazada a la derecha y la dirección del viento mostró comportamiento diferente a los anteriores. La variable objetivo no posee distribución normal, mostró que la mayoría de los datos se concentran en el 0, se observó mediante distribución de densidad kernel, debido a su distribución, se realizó una transformación logarítmica para obtener una mejor distribución. Luego de construir la matriz de correlación se observó alta correlación positiva de .71 entre la variable objetivo radiación y temperatura, con las otras variables una menor correlación, con la dirección_del_viento de -0.26, con la variable presión 0.31, con humedad .29. 3.1 4. Calidad de los datos Los datos están completos, no se encontraron datos anómalos, se efectuó búsqueda de outliers sin encontrar alguno. 3.2 Preparación de datos Con base en los resultados del análisis multifactorial mediante la matriz de correlación que demostró correlación alta entre la variable radiación (objetivo) y la variable temperatura, así como entre otras variables antes mencionadas, al tratarse de un banco de datos con un número reducido de variables, se procedió a incluirlas todas en el proyecto de predicción. 3.2.1 Limpieza valores faltantes No existen valores faltantes en el conjunto analizado, esto se identificó a través del análisis para identificar ausencia de datos en columnas o filas., por lo que no fue necesario ningún procedimiento de limpieza al respecto.
  • 225. 224 3.2.2 Limpieza: valores anómalos No se observaron valores atípicos, aun cuando se realizó el análisis para identificar outliers en la variable objetivo, tomando en consideración el análisis mediante método basado en su densidad, extrayendo la desviación estándar y la varianza y con base en ellas estableció los valores alejados que se consideraron atípicos. 3.2.3 Construcción generación de atributos Se realizó un reescalamiento de la variable objetivo, dada una distribución muy diferente a la distribución normal, donde la mayor parte de los datos se encontraron cerca del 0, lo cual traería problemas para el modelo, por tanto, se efectuó la transformación logarítmica - 1., con ello la distribución mejoró en gran medida. Figura 1. Distribución de la variable objetivo. Fuente: elaboración propia 3.2.4 Transformación: normalización Se realizó la normalización / transformación logarítmica, con el propósito de evitar posible sesgo en el modelo, debido a las diferencias entre magnitudes de las variables. Donde: x patrones de entrada x’ = log(x) Ecuación 1. Escalamiento logarítmico Figura 2. Distribución de la variable objetivo-transformada. Fuente: elaboración propia 3.2.5 Integración de datos Finalmente los datos empleados para el modelo de predicción y la variable objetivo mostraron distribuciones aceptables, cercanas a la distribución normal, por lo que se procedió al modelado. 3.3 Modelado Considerando que se trata de una predicción con datos continuos, se decidió aplicar la técnica
  • 226. 225 regresión lineal múltiple. Se diseñó además el modelo k-fold, con el propósito de efectuar un comparativo entre los resultados en ambos casos. Finalmente se probó con un modelo lasso model buscando mejores resultados. 3.3.1 Entrenamiento Se utilizó la técnica de test train Split 20-80 para realizar el entrenamiento del modelo, es decir 20% de datos para evaluación y 80% para entrenamiento. Se entrenó un conjunto de datos y se empleó otro conjunto para validar de la forma siguiente: Para entrenamiento: 26148 registros Para prueba: 6538 registros 3.3.2 Diseño de Evaluación. Para estimar el rendimiento del modelo se utilizaron diferentes métricas: Modelo de regresión lineal: R2 (coeficiente de correlación), RMSE (root-mean-square error), es decir, error cuadrático medio y MAE (mean absolute error) es decir, error medio absoluto. Se validó el modelo de k-fold mediante cross validation 4 Evaluación del modelo. Resultados El modelo de regresión múltiple construido, se consideró la mejor alternativa considerando el tipo de datos con los que se cuenta, además de que el objetivo es predicción de la radiación. Sin embargo, se utilizó también k –fold y lasso model, y los resultados fueron similares. De cualquier forma, el modelo de regresión múltiple por su permanente uso facilita la comprensión del trabajo desarrollado, así como de sus resultados (Ver Tabla 1) Métrica Resultado train Resultado target R2 .85 .83 RMSE .36 .37 MAE .54 .55 Tabla 5. Resultados de rendimiento. La variable humedad no fue considerada por el modelo, esto se probó además con lasso model y se obtuvo la misma conclusión respecto a las variables. Los coeficientes que dan lugar al modelo de regresión son: dirección_del_viento .78, temperatura .18, velocidad .10 y presión .05 Fue conveniente probar con diferentes métrica para identificar los mejores resultados.. 5 Conclusiones y direcciones para futuras investigaciones La predicción de la radiación es valiosa en las tareas relacionadas con la prevención de daño en los cultivos, contar con la información de manera oportuna constituye una herramienta para adelantarse al futuro y estar en posibilidad de reducir riesgos o evitar pérdidas. Es útil para el agricultor contar con mecanismos que incrementen su certidumbre alrededor de factores que podrían afectar la siembra, posibilitando una actuación oportuna acompañada de la creación de planes de contingencia eficaces. Los cambios repentinos en la radiación solar son
  • 227. 226 inevitables y causantes de daño y pérdidas, adelantarse al futuro permitirá proteger al cultivo. La ciencia de datos ofrece amplias posibilidades en tareas de predicción, haciendo uso de técnicas y modelos estadísticos se lograron los objetivos propuestos y el predictor diseñado se considera adecuado. A pesar de que las técnicas de Inteligencia artificial muestran desempeño favorable en estas tareas, constituyen una alternative valiosa, no obstante, la estadistica ofrece resultados de alta precision. Los trabajos futuros consisten en la construccion de predicciones de la radiacion solar, basada en los requerimiento de cada cultivo básico, considerando su alta sensibilidad ante la baja radiacion solar, en muchos de los casos. Referencias [1] M. M. C. Zamora, «Cambio climático.,» Revista mexicana de ciencias forestales, pp. 04-07, 2015. [2] P. F. &. P.-G. C. Martínez-Austria, «Efectos del cambio climático en la disponibilidad de agua en México.,» Tecnología y ciencias del agua, pp. 5-20, 2012. [3] Ruiz Corral, José Ariel, Medina García, Guillermo, Ramírez Díaz, José Luis, Flores López, Hugo Ernesto, Ramírez Ojeda, Gabriela, Manríquez Olmos, José Damián, Zarazúa Villaseñor, Patricia, González Eguiarte, Diego Raymundo, Díaz Padilla, Gabriel, & Mora Orozco, Celia de la. (2011), «Cambio climático y sus implicaciones en cinco zonas productoras de maíz en México,» Cambio climático y sus implicaciones en cinco zonas productoras de maíz en México. Revista mexicana de ciencias agrícolas, pp. 309-323, 2011. [4] Paytas, M. J., Scarpin, G. J., Dileo, P. N., Winkler, H. M., & Keshav, K. (2019). Condiciones ambientales y cambio climático. Combatir los efectos del cambio climático en el algodón: lo que los científicos y los gobiernos pueden hacer al respecto. Asociación para la Promoción de la Producción Algodonera, Argentina. [5] Moreno Gutiérrez, S. S., Toriz Palacios, A., López Pérez, S., & Ruiz Vanoye, J. A. (2019). Evaluador inteligente de daño fenológico en la planta de trigo. CIENCIA ergo-sum: revista científica multidisciplinaria de la Universidad Autónoma del Estado de México, 26(3), 1-12. [6] Sillué, S. M., Daschner, Á., Navas, F. J. M., Rubio, C., Armendáriz, M. J. R. L., & Pérez, P. B. (2021). Informe del Comité Científico de la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) en relación a los efectos del cambio climático sobre la presencia de micotoxinas en los alimentos. Revista del Comité Científico de la AESAN, (33), 11-51. [7] Ordoñez-Palacios, L. E., León-Vargas, D. A., Bucheli-Guerrero, V. A., & Ordoñez-Eraso, H. A. (2020). Predicción de radiación solar en sistemas fotovoltaicos utilizando técnicas de aprendizaje automático. Revista Facultad de Ingeniería, 29(54), e11751-e11751. [8] Olivera, L., Salina, M., Atía, J., Denon, N., Gómez, J., Guzmán, J., ... & Morales, M. (2021). Aprendizaje profundo en aplicaciones biomédicas, agronómicas y ambientales. In XXIII Workshop de Investigadores en Ciencias de la Computación (WICC 2021, Chilecito, La Rioja). [9]FUENTES-COVARRUBIAS, R., FUENTES-COVARRUBIAS, A. G., CORTESQUIROZ, J. A., & DE JESUS- JUAREZ, J. G. (2018). Sistema basado en conocimiento para la predicción del clima para usos agrícolas Knowledge Based system for predicting climate for agriculture uses. Cómputo Aplicado, 2(8), 1-11. [10] Reeves, T. G., Thomas, G., & Ramsay, G. (2016). Ahorrar para crecer en la práctica: maíz, arroz, trigo. Guía para la producción sostenible de cereales. [11] Guti&errez, S. S. M., Palacios, A. T., Ruiz-Vanoye, J. A., & P&erez, S. O. L. O. (2018). Sustainable and technological strategies for basic cereal crops in the face of climate change: A literature review. African Journal of Agricultural Research, 13(5), 220-227. [12] Espinosa-Zúñiga, J. J. (2020). Aplicación de metodología CRISP-DM para segmentación geográfica de una base de datos pública. Ingeniería, investigación y tecnología, 21(1). Sistema de clasificación multiclase para lesiones dermatológicas ideal para Queratosis Actínica Edgard José Maciel Cataño1 , Maricela Jiménez Rodríguez, José Trinidad Guillen Bonilla1 , Mario Eduardo Cano González1 y Juan Carlos Estrada Gutiérrez1 1 Centro Universitario de la Ciénega, Universidad de Guadalajara, Av. Universidad, #1115, Col. Linda Vista, C.P 47810, Ocotlán, Jalisco. México.
  • 228. 227 edgard.maciel@alumnos.udg.mx, maricela.jrodriguez@academicos.udg.mx, trinidad.guillen@academicos.udg.mx, meduardo2001@hotmail.com, jcarlos.estrada@academicos.udg.mx Resumen. En la presente investigación se muestra un clasificador multiclase empleado en imágenes dermatoscopicas de nueve diferentes lesiones de piel como lo es el Carcinoma Baso Celular, Dermatofibroma, Queratosis Actínica, Melanoma, Nevo Común, Queratosis Benigna Pigmentada, Queratosis Seborreica, Carcinoma de Células Escamosas y Lesión Vascular, en el que se utilizan técnicas como histogram matching, filtro de color, binarización adaptativa, CCR como descriptor, distancia Manhattan como métrica de similitud y finalmente una matriz de confusión para evaluación del sistema, por lo que el animo de de este trabajo es el desarrollo un clasificador de lesiones dermatológicas especializado en el que se resalta la Queratosis Actínica, dando resultados del 100% siendo altamente efectivo en su detección. Palabras clave: Clasificación multiclase, Histogram Matching, CCR. 1. Introducción Dentro de la detección del cáncer de piel auxiliada por computadora, el Melanoma ha sido el principal protagonista, siendo pocos los estudios realizados a las demás lesiones cancerígenas, atípicas, benignas o poco comunes, por lo que este trabajo propone un sistema de clasificación multiclase que otorgue la clasificación automatizada a las lesiones no tan comunes como el melanoma. A diferencia de la tendencia de los últimos años en la detección del cáncer de piel mediante redes neuronales e inteligencia artificial [1], la clasificación hecha en este trabajo se centra primeramente en el histograma para la estandarización de cada clase, un filtro de color y finalmente en la comparativa lineal entre 2 vectores característicos. Para la estandarización de las clases, A. W. Setiawan utilizó técnicas cómo CLAHE Y MSRCR las cuales le permitieron tanto tonificar las imágenes como estandarizarlas para después clasificarlas mediante redes neuronales [2]. En el proceso de binarización, K. Roy et al. utilizaron el umbral adaptativo para evitar la pérdida de información de la imagen a estudiar, asimismo segmentaron la imagen en k-means clusters y aplicaron una segmentación morfológica [3]. Relativo a los filtros de color, Germán Capdehourat et al. lograron obtener muy buenos resultados filtrando el velo azul-blanquesino y la red de pigmentos aplicando un filtro de color a las imágenes dermatoscópicas [4]. Aunado a ello J. T. Guillen-Bonilla et al. propusieron un sistema estadístico para caracterizar por completo una clase dada en un clasificador de una sola clase de pilas de granito, asimismo utilizaron la distancia Manhattan como métrica de similitud y prepararon del camino para el clasificador multiclase del presente sistema [5]. Finalmente, para la clasificación multiclase, R. Maurya et al. implementaron un clasificador multiclase donde evalúan 4 de las 9 clases descritas en este trabajo, donde previamente utilizaron GLCM para la extracción de características y SVM como clasificador [6]. En el presente trabajo se muestra una clasificación multiclase de 9 diferentes lesiones dermatológicas usando técnicas como histogram matching, filtro de color, binarización adaptativa, CCR como descriptor de características, distancia Manhattan como métrica de similitud y finalmente una matriz de confusión con la evaluación del sistema propuesto. 2. Metodología En la investigación realizada se muestra la metodología para la clasificación, en la que se obtuvieron imágenes de la base de datos ISIC 2019 [7], donde se establecieron 9 clases de imágenes dermatoscópicas, correspondientes a 9 lesiones: Carcinoma Baso Celular (BCC), Dermatofibroma (DFB), Queratosis Actínica (KER), Melanoma (MEL), Nevo Común (NEV), Queratosis Benigna Pigmentada (PKER), Queratosis Seborreica (SEB), Carcinoma de Células Escamosas (SQU) y Lesión Vascular (VLE).
  • 229. 228 2.1 Delimitación de las clases Se establecieron 50 imágenes por clase, las dimensiones de cada imagen fueron de 400 x 300 pixeles, las imágenes seleccionadas son una muestra representativa de cada clase dermatológica la Figura 1 muestra las primeras 20 seleccionadas. Fig. 1. Muestra de las imágenes por clase. 2.2 Histogram Matching Las imágenes dermatoscópicas obtenidas no resultaron homogéneas en sus parámetros de luz y tonalidad. Por lo que se seleccionó la técnica de histogram matching como método de homogenización. En la Figura 2 se aprecia en la parte superior la imagen de referencia de la clase, en el lado inferior izquierdo la imagen original y en el lado inferior derecho la imagen con histogram matching aplicado. Fig. 2. Proceso de homogenización a través de histrogram matching. 2.3 Filtro de Color Una vez homogenizadas las imágenes se les aplica un filtro de color con base en las características y tonalidades del carcinoma basocelular, el cual fue obtenido analizando 210 imágenes correspondientes a dicha clase, segmentando manualmente mediante un óvalo la lesión de la piel, creando una máscara de la imagen correspondiente a la lesión y otra correspondiente a la piel. Para cada una de estas máscaras de las 210 imágenes
  • 230. 229 se analizan todos los pixeles contenidos en éstas y se obtienen tras el análisis 21 indicadores estadísticos, 7 por canal, los cuales son: media, mediana, desviación estándar, mínimo, percentil 25, percentil 75 y máximo. Tras obtener 4410 índices estadísticos, 21 índices por las 210 imágenes, estos son promediados para su análisis posterior. Obteniendo los 21 índices estadísticos promedio, se utiliza para el filtro de color los índices mínimo y máximo para cada canal. De esta manera se estructura el filtro consistente en 3 tuplas de valores máximos y mínimos, una tupla por canal. Después de aplicar el filtro de color a las 450 imágenes, 9 por clase, se obtiene una imagen con los pixeles que permanecieron tras el filtro con sus valores originales como se logra apreciar en la Figura 3 y los pixeles que no permanecieron posterior al filtro sus valores en los 3 canales RGB es de cero. Fig. 3. Imágenes de la clase del Carcinoma Basocelular posterior a la aplicación del filtro de color. Cada imagen filtrada por clase se binariza usando métodos de umbralización adaptativa, como se muestra en la Figura 4, además se combina con un filtro gaussiano para reducir la pérdida de información tras la binarización de la imagen, teniendo al final de este proceso 50 imágenes binarizadas por clase representada por ceros y unos.
  • 231. 230 𝑞 Fig. 4. Binarización de cada imagen por clase con umbral adaptativo. A cada imagen binarizada por clase se le denomina con la letra Q y son subimágenes aleatorias de una clase, donde Q es 30, por cada subimagen Q se tomaron P ventanas aleatorias, donde P es igual a 30, de 50 x 50 pixeles. Se describe el interior cada ventana aleatoria P con base en el descriptor de textura CCR, el cual su dimensión es de 512 elementos. Se describe cada ventana P de cada subimagen Q, teniendo 30 vectores característicos CCR por ventana P, a estos vectores característicos se les denomina 𝐹𝛼, se promedian los 30 vectores 𝐹𝛼 para así obtener 𝑞 𝑞 un vector característico por subimagen Q, a este vector se le denominó Fq. como se muestra en la Ecuación 1. 𝐹 = 1 ∑𝑃 𝐹𝛼 (1) 𝑞 𝑃 𝛼=1 𝑞 Una vez obtenido el vector característico 𝐹𝛼 se evalua la distancia de cada vector 𝐹𝛼 con respecto al 𝑞 𝑞 vector Fq mediante la sumatoria de las diferencias entre cada elemento de los vectores como se muestra en la Ecuación 2, asimismo, se toma la desviación estándar de la muestra de todas las distancias del vector 𝐹𝛼 al vector Fq como se muestra en la Ecuación 3. < 𝑑 > = 1 ∑ 𝑃 𝑑(𝐹𝛼, 𝐹 ) (2) 𝑞 𝑃 𝛼=1 𝑞 𝑞 𝜎2 = 1 ∑ 𝑃 ( 𝑑(𝐹𝛼, 𝐹 ) − < 𝑑 > )2 (3) 𝑞 𝑃 𝛼=1 𝑞 𝑞 𝑞 Posteriormente, una vez obtenidos los 30 vectores característicos, se procede a obtener el promedio de distancias dq y la desviación estándar de la muestra de todas las distancias dq, como se muestra en las Ecuaciones 4 y 5. 𝐷 = 1 ∑𝑄 < 𝑑 > (4) 𝑄 𝑞=1 𝑞 𝜎 = 1 ∑𝑄 (𝜎 ) (5) 𝑄 𝑞=1 𝑞 Asimismo, se procede a calcular el vector característico prototipo de toda la clase para cada una de las 9 clases, al que se le denomina F, este vector se calculó promediando los 30 vectores Fq como se muestra en la Ecuación 6, asimismo se calcula la distancia de cada vector Fq respecto al vector F y la desviación estándar, como se muestra en la Ecuación 7: 𝐷~ = 1 ∑𝑄 𝑑(𝐹 , 𝐹) (6) 𝑄 𝑞=1 𝑞 𝜎~ = 1 ∑𝑃 ( 𝑑(𝐹 , 𝐹) − 𝐷)2 (7) 𝑄 𝛼=1 𝑞 Finalmente, se obtienen 5 parámetros por clase los cuales se utilizarán en la clasificación, los cuales son: F, 𝐷, 𝜎, 𝐷~, 𝜎~. Todo el análisis anteriormente descrito se empleo para la etapa de entrenamiento, a continuación, se describe el procedimiento para la etapa de clasificación. 3. Resultados Se utiliza un clasificador multiclase, de las 30 imágenes disponibles por clase, se seccionó el 70%, 15 imágenes aleatorias, para el set de entrenamiento y el 30 % restante, 15 imágenes, para el set de validación, las imágenes entre clases son únicas e irrepetibles.
  • 232. 231 Para cada imágen de cada clase del set de validación, se analiza de la misma forma que cada imagen del set de entrenamiento, se divide cada imagen en K ventanas, donde K es igual a P de 50 x 50 pixeles, se obtiene un vector característico por ventana K, posteriormente se promedia cada uno de los 30 vectores FK para obtener un vector prototipo de cada imagen del set de entrenamiento, a este vector se le denomina Ftest como se muestra en la Ecuación 8, asimismo como la desviación estándar de los 30 vectores característicos FK respecto al vector prototipo Ftest, como se muestra en la Ecuación 9, obteniendo solamente 2 parámetros para su clasificación. 𝐹 = 1 ∑𝐾 𝐹𝛼 (8) 𝑡𝑒𝑠𝑡 𝐾 𝛼=1 𝐷 = 1 ∑𝐾 𝑑(𝐹𝛼, 𝐹 ) (9) 𝑡𝑒𝑠𝑡 𝐾 𝛼=1 𝑡𝑒𝑠𝑡 Una vez obtenidos los 2 parámetros por cada clase se procede a la clasificación de cada imagen. La métrica de similitud empleada en este trabajo es la distancia manhattan entre el vector característico de cada clase Ftest respecto a los 9 vectores prototipo F de cada clase. Se obtienen 9 valores escalares correspondientes a las distancias mencionadas, se almacenan en un arreglo donde la posición de cada elemento del arreglo corresponde a cada clase, para las posiciones 0 a 8 y para las clases de la 1 a la 9 respectivamente. Se selecciona el valor menor dentro de este arreglo de distancias y la clase representada por la posición de esta menor distancia dentro del arreglo, es la clase a la que es clasificada la imagen. El proceso anterior se repite por cada una de las 15 imágenes por clase de validación, comparando cada vector característico contra las 9 clases. Al finalizar este análisis a través de las 9 clases, se obtienen 9 vectores fila de 1 x 9, que conforman la matriz de confusión de la Tabla 1. Con la información vertida en la matriz de confusión, se evalúa el clasificador a través de 3 estándares estadísticos: sensibilidad, precisión y score F1 como se muestra en la Tabla 2. Tabla 1. Matriz de confusión del clasificador propuesto.
  • 233. 232 Tabla 2. Evaluación del sistema clasificador en términos de sensibilidad, precisión y score F1. Tras implementar el clasificador, el resultado reflejado en la matriz de confusión de la Tabla 1 es altamente efectivo, se obtuvieron altos índices de sensibilidad en la clase Queratosis Actínica obteniendo una sensibilidad de 1.00 y una precisión de 0.88. 4. Conclusiones La homogenización de las condiciones de luz y tonalidad de las imágenes mediante histogram matching de cada clase fue de gran ayuda para la descripción de la clase mediante su histograma, asimismo, la binarización adaptativa permitió una mejor eficacia del descriptor CCR en cada ventana analizada. El filtro de color, si bien fue ideado para el carcinoma basocelular, le favoreció considerablemente a la clase de la queratosis actínica en el proceso de la clasificación y la distancia Manhattan como métrica de clasificación fue una medida de proximidad certera del vector de validación contra el vector prototipo. El sistema de clasificación desarrollado arrojó resultados óptimos en 3 de las 9 clases: queratosis actínica, lesión vascular y dermatofibroma, dando como mejor resultado la clase de la queratosis actínica, por lo que se le considera optimo para dicha clase. Agradecimientos. Agradecemos a CONACYT por el apoyo en el desarrollo de este proyecto 784213 así como al Centro Universitario del la Ciénega de la Universidad de Guadalajara. 5. Referencias [1] (2021, May) IEEE Xplore. [Online]. https://ieeexplore.ieee.org/search/searchresult.jsp?newsearch=true&queryText=neural%20network%20skin%20cance r [Consultado el: 2021-07-15. [2] A. W. Setiawan, "Effect of Color Enhancement on Early Detection of Skin Cancer using Convolutional Neural Network," 2020 IEEE International Conference on Informatics, IoT, and Enabling Technologies (ICIoT), 2020. [3] K. Roy, S. S. Chaudhuri, S. Ghosh, S. K. Dutta, P. Chakraborty and R. Sarkar, "Skin Disease detection based on different Segmentation Techniques," 2019 International Conference on Opto-Electronics and Applied Optics (Optronix), 2019. [4] Germán Capdehourat, Andrés Corez, Anabella Bazzano, Rodrigo Alonso, Pablo Musé,” Toward a combined tool to assist dermatologists in melanoma detection from dermoscopic images of pigmented skin lesions”, 2011, Pattern Recognition Letters, Volume 32, Issue 16, 2011. [5] J. T. Guillen-Bonilla, E. Kurmyshev and E. González, “Algorithm for training the minimum error one-class classifier of images”,2008, Applied Optics, Optical Society of America, 2008.
  • 234. 233 [6] R. Maurya, Surya Kant Singh, A. K. Maurya and A. Kumar, "GLCM and Multi Class Support vector machine based automated skin cancer classification," 2014 International Conference on Computing for Sustainable Global Development (INDIACom), 2014. [7] (2021, May) ISIC 2019 Challenge. [Online]. https://challenge2019.isic-archive.com/ [Consultado el: 2021-06-18]
  • 236. 235 Limitations experimented by undergraduates in Stem careers, during the production of scientific reports. Case study in Panamanian public universities Donna Angela Roper 1 and Javier Torres Salgado 2 1 Universidad de Panamá- Campus Ciudad de Panamá, El Cangrejo, Calle Octavio Méndez Pereira, Panamá, República de Panamá Donna.roper@up.ac.pa 2 Universidad Autónoma de Chiriquí, Ciudad de David, Chiriquí, República de Panamá Javier.torres@unachi.ac.pa Abstract. The frequent lack of decision in undergraduate students, to pursue research as graduation project, was our main motivation. Panamanian universities are compelled to manage three basic duties: education, research, and innovation. One of the main problems is that undergraduates do not receive enough training to develop the necessary skills that are needed to get involve in scientific research. capable of developing their skills as scientific researchers. Identifying the limitations experimented by students during their research methodology course, is our goal. So, to achieve it, we used a mixed approach [15], and non- experimental, exploratory design with a highly descriptive component, modified from [16]. The use of a framework helped the understanding. Some findings are related with the difficulty students confront when delivering components. The strategy is to strengthened basic skills, such as reading comprehension, writing, summarizing, and concluding, as well as research abilities such as, formulating questions, experimental design, statistical analysis, for a start. Keywords: Scientific report, undergraduates, STEM, Research methodology 1 General Review of the Study. State of the Art 1.1. Overview Today the number of universities that are emerging to respond to the variable needs of a young population, are increasing. This growth has been regulated by institutions that supervise the quality of these universities, according to key indicators that are related with the compliance of three basic tasks: education, research, and innovation. In Panama, the institution that carryout this role is the National Council for University Evaluation and Accreditation of Panama (CONEAUPA) [1]. The commissioned individuals responsible to fullfill these tasks are professors and students, that through a constant developement of academic activities, can manage to accumulate the knowledge necessary for the improvement of institutional indicators regarding scientific development with social and economic impact to therefore meet the goals through scientific research [2]. This is sustained by many authors such as [3] [4] and many others referenced by [5] who claims that research must be a transversal training in the undergraduate’s curriculum. On the other hand, [4] referenced by [6] and [7] insists that students do not receive a training, good enough, to be capable of developing their skills as scientific researchers. The fact of integrating research methodology (RM) in the curriculum is suitable for students’ appropriation, [8] recommends preferable in two semesters; even though [2], [9], and [10], sustain that the development of investigative skills in the initial training of students, should not be limited by a subject, more so, should be present in other training aspects of the curriculum. Seen this, the curriculum of STEM careers in Panamanian public universities is reviewed in Table 1, and the average dedication is four (4) semester/hours, including theory and practice, taken between the 6th and 8th semester.
  • 237. 236 Public Engineering Bachelor University Theory Practice Theory Practice U01 2 2 3 1 U02 2 2 3 1 U03 0 0 3 0 Total 2 2 3 1 Table 6. Average hours of theory and practice assigned to research methodology, according to academic degree, in public universities For this study we divide the paper in five sections: state of the art, problem to solve, description of the study, and some conclusions. 1.2. State of the Art Qualitative research is composed of several stages such as the statement of the problem, the theoretical framework where information related to the approach, materials and methods used, data, data analysis and finally the conclusions are exposed. Regarding the problem statement, [11] sustains that some authors of books on RM, offer few arguments or are imprecise to answer the question What is a research problem?, so he suggests a procedure o guide to orient researchers on the most recommended actions to follow, such as reviewing the research context in specialized journals, identifying topics that are susceptible to research, considering the theoretical concepts that are related to the topic and finally raising and formulating the research problem. He also offers a flow chart of how all these components are related. The research methodology courses (RMC) in STEM careers tend to present quantitative and qualitative methodologies and depending on the model project to be considered in the class they are applied separately or mixed. [12] points out that the perception that qualitative approach in researchers is rigorous, in contrast to the quantitative one, and that, most of the time, professors tend to present the research project with the same structure, research questions, tools and data collection techniques and data analysis strategies in an isolated way, causing confusion in students of how both approaches are related. According to [5] when formulating an hypothesis in the qualitative approach it requires that the researcher to establish an existing problem in the same context and the importance as the object of a study. Different obstacles arise, both from the point of view of the researcher and the university professor who teaches the RMC, among which we can mention: the professor does not have enough research experience or lacks the preparation enough to plan research projects, and on the side of researcher's, they lack knowledge of the theoretical framework of a research, as well as certain concepts of hypothesis that is a tool for the improvement in science. Additionally, we have [13] who values the feelings that students have of their research work, which is normally limited by the strictness of the professor-advisor and the emotions that arise in new researchers. He proposes to administratively articulate the progress of a group of errors associated with the problem, the search for information, the formulation of key questions such as who? why? what? the definition of general and specific objectives, the wording of the justification, the theoretical framework, the methodology and the findings. He is convinced that the appropriation of structured research strategies by researchers, can be enhanced by the understanding and dominating these elements. When thinking of how to affect the curriculum, [2] point out the need of a revision, to create a more coherent and logical sequence of activities, in several subjects in order to develop in students a research profile fill with the basic competencies needed to construct scientific research. It is considered that factors such as age, year of study, belonging to a research group, among others, can control the attitude that must be achieved by the students to overcome the challenge of becoming a proficient researcher. On the other hand, advances in web technologies are focused on improving the quality of many services for researchers. That is were [14] present a way to support researchers when collecting scientific documents for the preparation of either manuscripts or research projects. From the formative perspective, it was evidenced that web technologies can help accelerate the achievement of a group of good articles that can trigger the beginning of a rich production of scientific research.
  • 238. 237 2. Problem to solve In this paper we aim to identify the limitations experimented by students during a research methodology course (RMC), as a prelude to the production of a good scientific report. What type of intervention is necessary to improve the students’ responses? It is important to mention, that most of the reviewed articles, belonged to experiences from health and education sciences. Thinking about this study and the problem, we would like to know: Which are the most difficult and the easiest tasks that undergraduates encounter when working on a research project? Is there any difference between male and female? What is the quality of the deliveries of the students? How can students overcome the scientific production? 3 Description of the study To answer the research questions, we used a combined method that included surveys and observations carried out in three stages using as sample students in public universities enrolled in courses related with research methodology, years 2016-2020. The first and last stage analyzed the experiences before and after participating in RMC. In the second stage, the corpus analyzed were different deliveries from students, selected representatively from the five years. 3.1 Methodology This study is based on mixed approach [15], and non-experimental, exploratory design with a highly descriptive component, modified from [16]. In the first and the last stage we applied two different surveys, that didn’t include personal information of the students. The preliminary survey with ten questions related to knowledge, ethics, and research course expectations, was applied to a sample of 19 students (Male=14, Female=5). The second stage was an evaluation using a Likert scale, of the difficulty presented by the students in the deliverables of the RMC. Understand by difficulty when an effort to provide product doesn’t satisfy the requirement. For this, we used a framework that included 22 skills to review, group by statistical, research and basic skills and judging how each student delivered them. The sample used was a corpus of deliverables from 30 students of two public universities (Male=21, Female 9), representatively selected from the years 2017 to 2020, without any personal data to respect their privacy. Our analysis was adapted form [16], helped us understand more about the dilemma. The post survey of ten questions related to experience after the RMC, applied to a sample of 55 students (Male=35, Female=20), whose perception was analyzed with a descriptive statistic. 3.2 Results and Discussion In the first stage, we extracted from the survey variables such as where students search for information, the usage, their interests, and expectation before a research course. The Table 2 presents the responses of the students. Some findings regardless of the gender where that the search engine mainly use as a source of information was Wikipedia (M=64%, F=80%). Both male and female students tend to read and interpret the information from other authors, (M=64%, F=60%), the only thing that worries us is that a low percentage know about citing the articles. The areas of interest were mainly technology (64%) and education (21%) in male students, and in female students, environment (80%) was the spotlight. The expectations mainly expressed by the sample studied, was to learn about research, rather than analyze, evaluate, and solve problems, which we find valuable.
  • 239. 238 Fig 2. Research tasks students reported easy and difficult, after RMC Criteria F M Total Qty % Qty % Qty % Search engine 5 100 14 100 19 100 Google Scholar 1 20% 3 21% 4 21% Monografias.com 0 0% 2 14% 2 11% Wikipedia 4 80% 9 64% 13 68% Using author papers 5 100 14 100 19 100% Through citations 1 20% 2 14% 3 16% Copying information 0 0% 2 14% 2 11% Reading and interpreting 3 60% 9 64% 12 63% Did not reply 1 20% 1 7% 2 11% Area of interest 5 100 14 100 19 100 Education 0 0% 3 21% 3 16% Environment 4 80% 0 0% 4 21% Health 0 0% 1 7% 1 5% Others 0 0% 1 7% 1 5% Technology 1 20% 9 64% 10 53% Expectations 5 100 14 100 19 100 Analyze, evaluate, and solve problems 0 0% 2 14% 2 11% Learn more about research 5 100% 12 86% 17 89% Table 7. Responses given by undergraduates of research courses in a preliminary approach In the second stage, Fig. 1 shows a representation of information from the framework, where the deliverables were evaluated according to the level of difficulty symbolized by colors, according to a group of skills. The highest percentages of students tagged as very difficult (red), was found in identifying study object and material object (70%), using statistic software (60%) and using tables (50%). Additionally, analyzing the documents (60%), extracting cue ideas (53%), interpreting (43%) and drafting results (50%), and writing reports (47%), were found to be difficult skills (mustard). Some data from gender showed that female students found difficult and very difficult task those performed with basic and research skills and on the other hand, the male students showed limitations in the use of basic, statistical and research skills. In last stage, we have responses from the undergraduates after the RMC, in Fig. 2 we found that 18 (33%) considered that preparing and applying the questionary was an easy task, the same as designing a scientific
  • 240. 239 Fig. 3. Undergraduate’s self-appraisals after RMC, what skills had to improve and reinforce. Fig. 1. Percentage of students according to the certainty of their deliverables, by level of difficulty detected in research skills poster with (12) 22%. Also, the most difficult task was analyzing data and preparing conclusions difficult (51%) which was corroborated by (Pierrakos, Zilberberg, & Anderson, 2010) and (Espinosa Fernández & Villavicencio Aguilar., 2017) in their researches. Other responses from students that could be pointed out, were their preference for teamwork, which is one of the skills of the millennium that promise success. Another interesting result were the undergraduate’s self-appraisal. In Fig 3, we found that abilities that mostly needed to be improved was the time dedicate to research (N=23, 41%) and on the other hand, recognizing that they needed to strengthen skills such as: writing articles (N=16, 29%), data analyzing (N=12, 21%) and the structuring the scientific report (N=12, 21%)
  • 241. 240 The accomplishment in newly researchers is strongly related to the coexistence of student understanding and professor’s advice, supported by [13], and should be reinforced. 4 Conclusions Research is one of the most important activities in higher level institutions, and forms part of the education ecosystem in a country, especially because of the opportunity it offers to develop scientific production that, offers sustainability not only for the institution’s sake but also for the society, knowledge wise. The limitations confronted by undergraduates, considered as dynamic players, are decelerating the flow to innovation. More dedication is needed so that research can be considered not only as a task, but as a culture within the walls of the institution. The students experience, regardless of the gender, must help them face challenges that have to be approached with precision and force. This implies a radical change in the curriculum, the creation of research programs from the first years [17], to allow students to have more time access the experimentation process. In this study, we confirmed that basic competences must be strengthened, such as reading comprehension, writing, summarizing, and drawing conclusions, as well as other research abilities such as: formulating questions, experimental design, statistical analysis, and others traditionally related to science, health and even the humanistic sciences; this could be achieved by implementing professors’ hands-on workshops, increasing the number of contact hours and students’ dedication, per week. We insist that the methodology used in STEM careers, must be refocused at once, so that new researchers feel motivated to form part of the scientific community. Future work includes curtailing the limitations experienced by undergraduates through the implementation of indicators within the RMC, in an agile way, until the appropriation of the technique is achieved by professors, students and administrators. Acknowledgments. We would like to thank the reviewers beforehand, for their pertinent comments, and our respect for the five generations of students that made us understand the importance of having them at our side, during the journey of “learning about research and scientific production”. References [1] D. Ejecutivo, Ley 30, Panamá: Gaceta oficial 25595 de 25 de julio, 2006. [2] C. Rojas Granada y S. Aguirre Cano, La formación investigativa en la educación superior en América Latina y el Caribe: una aproximación a su estado del arte. Revista Eleuthera, vol. 12, pp. 197-222., 2015. [3] V. E. Chavez, La formación de investigadores en la Universidad. ACADEMO Revista de Investigación en Ciencias Sociales y Humanidades, vol. 5, nº 1., 2018. [4] M. F. Álvarez Icaza, Modelo para el desarrollo de habilidades de investigación de alumnos de licenciatura. Desarrollo de Habilidades de Investigación, 2011. [5] C. E. Espinosa Fernández y C. E. Villavicencio Aguilar, Habilidades investigativas para trabajos de graduación. ACADEMO Revista de Investigación en Ciencias Sociales y Humanidades, vol. 4, nº 1, 2017. [6] H. M. Rojas Betancur, R. Méndez Villamizar y Á. Rodríguez Prada, Índice de actitud hacia la investigación en estudiantes del nivel de pregrado. Entramado, vol. 8, nº 2, pp. 216-229, 2012. [7] R. J. Ortega Carrasco, R. D. Veloso Toledo y O. S. Hansen, Percepción y actitudes hacia la investigación científica. Revista de Investigación en Ciencias Sociales y Humanidades. ISSN 2414-8938, vol. 5, nº 2, p. 101, 2018. [8] J. K. Petrella y A. P. Jung, Undergraduate Research: Importance, Benefits, and Challenges. International journal of exercise science, vol. 1, nº 3, pp. 91-95., 2008. [9] M. Omar-Hechavarría y B. Capdevila-Leyva, El desarrollo de habilidades investigativas en la formación inicial de los estudiantes. EduSol, vol. 13, nº 43, pp. 22-29, 2013. [10] D. M. Rodríguez Martinez y D. L. Márquez Delgado, Las habilidades investigativas como eje transversal de la formación para la investigación. Tendencias Pedagógicas, vol. 24, p. 347–360, 2014.
  • 242. 241 [11] A. Quintana Peña, Planteamiento del problema: errores de la lectura superficial de libros de texto de metodología. Revista de investigación en psicología, vol. 11, nº 1, p. 239–253, 2008. [12] C. Lankshear y M. Knobel, Problemas asociados con la metodología de la investigación cualitativa. Perfiles educativos, vol. 22, nº 87, p. 6–27, 2000. [13] J. S. Calle Piedrahita, Errores en la investigación: una mirada desde la administración. Revista Iberoamericana de Producción Académica y Gestión Educativa, vol. 1, nº 2, 2014. [14] A. Raamkumar Sesagiri y S. Foo, Multi-Method Evaluation in Scientific Paper Recommender Systems. 26th Conference on User Modeling, Adaptation and Personalization, 2018. [15] R. Hernadez, C. Fernández Collado y M. d. P. Baptista Lucio, Metodología de la Investigación. México D.F. McGraw-Hill Interamericana Editores, 2014. [16] O. Pierrakos, A. Zilberberg y R. Anderson, Understanding Undergraduate Research Experiences through the Lens of Problem-based Learning: Implications for Curriculum Translation. Interdisciplinary Journal of Problem-Based Learning, vol. 4, nº 2, p. 35–62, 2010. [17] J. Quintero-Corzo y F. I. Mopliona Ancízar Munévar y Munervar-Quintero, Semilleros de investigación: una estrategia para la formación de investigadores. Educeduc, vol. 11, nº 1, pp. 31-42, 2008.
  • 244. 243 Estudio comparativo sobre el rendimiento de los lenguajes de programación Java y Python en diferentes SBC Jorge Aguilar Santiago1 , José Trinidad Guillen Bonilla1 , Juan Carlos Estrada Gutiérrez1 , María Guadalupe González Novoa1 , Maricela Jiménez Rodríguez1 jorge.asantiago@alumnos.udg.mx, trinidad.guillen@academicos.udg.mx, jcarlos.estrada@cuci.udg.mx, maria.gnovoa@academicos.udg.mx, maricela.jimenez@cuci.udg.mx. 1 Departamento de Ciencias Tecnológicas, Centro Universitario de la Cienéga, Universidad de Guadalajara, Av. Universidad No. 1115, Col. LindaVista, C.P. 47810, Ocotlán, Jalisco, México. Resumen: En esta investigación se presenta un análisis del rendimiento de los lenguajes de programación Java y Python, utilizando diferentes computadoras de placa reducida mejor conocidas como SBC; para determinar bajo qué circunstancias resulta más eficiente utilizar un lenguaje sobre el otro. Se realizaron pruebas de rendimiento utilizando algoritmos de cifrado, descifrado y procesamiento de imágenes con SBCs, lo cual permite contar con una referencia del costo beneficio de usar estos lenguajes y también del tipo de SBC que se requiere para esta labor, además se analiza si existe alguna influencia del hardware en el rendimiento de los procesos y los lenguajes de programación. Palabras claves: Python, Java, Lenguajes de programación, SBCs. 1. Introducción Java y Python son dos de los lenguajes más utilizados en la actualidad, esto de acuerdo al TIOBE programming community index y al PYPL PopularitY of programming Language, los cuales son indicadores de la popularidad de los lenguajes de programación, y regularmente se ven estos dos lenguajes en el Top 5; sin embargo, cabe aclarar que este índice no indica que un lenguaje sea mejor que otro, ya que cada uno ha sido creado para suplir una necesidad específica. Paul Xavier et al. desarrollaron una investigación en la que median el rendimiento de transferencia de imágenes en los lenguajes Java y Python utilizando una Raspberry pi, para lo cual realizaron dos tipos de pruebas externas que evalúan el porcentaje usado de CPU, RAM, etc. e internas donde analizan el tiempo de respuesta y de procesamiento [1]. También Zakaria Alomari et al., realizaron una comparativa de seis lenguajes de programación (C++, PHP, C#, Java, Python y VB); ellos evaluaron el tiempo de ejecución y uso de memoria en ámbitos como: conectividad a bases de datos, operaciones de escritura, lectura, rendimiento de GUI y de los algoritmos: DFS, BFS y Kruskal [2]. Selina Khorirom et al. realizaron un análisis comparativo de los lenguajes Python y Java para principiantes, donde indican las ventajas y desventajas de cada uno; compararon líneas de código de un programa en ambos lenguajes, el tamaño en bytes que ocupan, tiempos de ejecución etc.; e indican que un principiante en programación debe aprender de acuerdo con el objetivo y no es recomendable cambiar entre lenguajes ya que esto puede provocar una pérdida de confianza, también argumentan que los fundamentos de programación son similares, por lo tanto, si se domina un lenguaje se pueden dominar otros [3]. Stephen J.Humer et al. presentaron un análisis comparativo de los lenguajes C++, Java y Python, donde evaluaron las características básicas que definen a cada lenguaje, analizaron su legibilidad, simplicidad, ortogonalidad, portabilidad, entorno de programación y costo de uso, así como los tipos de datos, variables, palabras reservadas de cada lenguaje y soporte de abstracción; concluyeron que C++ es más para programadores avanzados que trabajen en proyectos con un cierto nivel de complejidad o proyectos grandes, mientras que Java y Python atraen más en el mercado general [4]. E Insanudin 2019, publicaron un artículo en el que compararon las líneas de código del algoritmo de ordenamiento burbuja, capacidad de los archivos y la velocidad de acceso de los lenguajes Python y Java [5]. En el presente trabajo se muestra una comparación entre los lenguajes de programación Java y Python en diferentes SBCs, se mide el rendimiento de los lenguajes y se comparan parámetros tales como: eficiencia, tiempo de ejecución. 2. Metodología
  • 245. 244 Enseguida se utilizan diferentes modelos y marcas de SBCs para probar el rendimiento de los lenguajes Python y Java; con la finalidad de tener un ambiente más controlado se usó el mismo sistema operativo Dietpi 7.2.3 en todos los equipos, el cual está basado en Debian y cuenta con distribuciones para cada uno de los modelos de SBCs que se van a usar. Para ver el impacto en el rendimiento que el hardware puede tener en los lenguajes de programación, también se utilizó la misma micro sd modelo ADATA SDXC 16GB V10 Clase 10 A1 en cada SBC, la cual tiene una velocidad de lectura de 100 MB/s. Todas las pruebas sobre las SBC se realizaron sin carcasa y sin ningún sistema de enfriamiento externo, salvo los disipadores térmicos de aluminio. Para realizar el análisis de rendimiento de CPU y velocidad se empleó el algoritmo criptográfico propuesto por Jorge A., en la tesis “Detección, reconocimiento y cifrado facial selectivo, implementando técnicas de criptografía y esteganografía basadas en caos”, el cual se utilizó debido a que el procesamiento de imágenes es uno de los procesos que más recursos exigen a las computadoras, para este estudio se implementó la técnica completa de cifrado y descifrado con una imagen de Lena de 128 x 128 [6]. 2.1 Java Fue diseñado en 1995 por James Gosling en la compañía Sun Microsystems; se desarrolló por la necesidad de contar con un lenguaje orientado a objetos, multiplataforma y que pudiera brindar ciertas facilidades a los programadores como la liberación de memoria, además Java lo que pretendía era compilar solo una vez el código fuente utilizando el concepto de máquina virtual a la que llamaron JRE (Java Runtime Environment) de modo que el programa se compila una sola vez creando un archivo bytecode que pueda leer el JRE; Java es compilado e interpretado al mismo tiempo [7]. La versión instalada de Java en todas las SBCs fue la openjdk 11.0.11 20-04-2021, salvo en la Raspberry Pi Zero W, ya que solo dispone de un núcleo, por lo tanto, no es capaz de correr la máquina virtual de Java, debido a esto se necesitó instalar una versión anterior llamada openjdk 1.8.0_212. 2.2 Python Guido Van Rossum lo creo y hasta el día de hoy ha tenido un gran crecimiento, porque es un lenguaje fácil de aprender y también es sencillo leer su código fuente; lo cual ha llevado a que numerosas compañías (Google, NASA, Facebok, Netflix, etc.) lo adopten. Además Python ha empezado a remplazar en el ámbito educativo a otros lenguajes que se enseñan en las aulas como primer lenguaje de programación [8]. La versión de Python que se instaló para realizar las pruebas en las SBCs es la 3.7.3. 2.3 Single board computer (SBC) Se trata de una computadora completa con todos los componentes que requiere para su funcionamiento como: CPU, RAM, GPU, tarjeta de sonido, de red, etc., los cuales están colocados en una sola placa de circuitos impreso (PCB) [9]. La Tabla 1, menciona las características de las SBCs utilizadas en esta investigación. Tabla 1. Comparativa de SBCs [10][11]. SBCs CPU RAM Sistema operativo Tarjeta gráfica Red Raspberry pi zero w 1GHz single-core BCM2835 ARM11 512MB Linux Arm Videocore IV 802.11n wireless Raspberry pi 3B 1.2GHz 64-bit quad-core Arm Cortex-A53 1GB Android, Linux Arm, Windows 10 Iot Videocore IV 802.11n wireless Gigabit Ethernet Raspberry pi 3B+ 1.4GHz 64-bit quad-core Arm Cortex-A53 1GB Android, Linux Arm, Windows 10 Iot VideoCore IV 802.11ac/n wireless Gigabit Ethernet Raspberry pi 4 1.5GHz 64-bit quad-core Arm Cortex-A72 4GB Android, Linux Arm, Windows 10 Iot VideoCore VI 802.11ac/n wireless Gigabit Ethernet Lattepanda alpha 1.1-3.4Ghz Dual-Core, cuatro hilos, Intel m3-8100y 8GB Linux, Windows Intel HD Graphics 615 Wifi 802.11 AC, 2.4G y 5G, Gigabit Ethernet
  • 246. 245 3. Resultados Javier medina en el libro Pruebas de Rendimiento Tic, describe dos tipos de pruebas externas e internas. Las externas determinan cuanto le toma al sistema operativo responder una petición, latencia de red, tiempo de procesamiento, etc. la interna es la información obtenida del propio proceso, por ejemplo uso de memoria, disco, etc. [12]. 3.1 Pruebas externas Para efectuar estas pruebas se utilizó la librería llamada Psutil, la cual dispone de varias herramientas para el análisis de diferentes componentes de una computadora, por ejemplo: CPU, RAM, SWAP, Discos duros, etc. 3.1.1 Uso de CPU Psutil dispone del comando psutil.cpu_percent(interval=None, percpu=True), el cual se ejecutó en un programa aparte del proceso que fue analizado, al ser un proceso simple tiene un impacto muy bajo en el uso de CPU. El comando tiene dos parámetros: interval y percpu. El primero cuando está en el intervalo 0.0 o None compara los tiempos del CPU del sistema desde la última llamada, si es > 0.0 devuelve el tiempo de CPU antes y después del intervalo. El parámetro percpu cuando es True muestra el uso de los CPU por separado de lo contario lo mostraría como un solo valor. Las Figuras 1 (a-b) muestran el resultado en Python y Java que arroja la librería psutil al momento de cifrar y descifrar la imagen de Lena, referente al uso de cada CPU en una Raspberry pi 4B con el formato [0.0, 0.0, 0.0, 0.0]. Cada valor separado por una coma corresponde al porcentaje de uso de cada CPU en un segundo determinado, el cual puede ir desde 0.0% hasta 100.0%, estos valores fueron promediados de acuerdo al número total de CPU y posteriormente se promediaron los resultados individuales por segundo, obteniendo así el uso total de CPU durante todo el proceso. Fig 1. Porcentaje de uso de CPU de Python (a) y Java (b) en una Raspberry pi 4B. Como se puede observar en la Fig. 1 (a), Python solo emplea un único núcleo en el proceso de cifrado y descifrado siendo este el núcleo 3 [cpu1, cpu2, cpu3, cpu4] con un uso cercano o igual al 100%, en dicho núcleo, pero de un 22.205% globalmente. En cambio, Java distribuye mejor el uso de los recursos del CPU [cpu1, cpu2, cpu3, cp4] sin llegar al 100% de uso en cada núcleo, pero con un uso global de un 47.6125% como puede observarse en la Fig. 1 (b), esto se debe a que en Python no manejan hilos por defecto a diferencia de Java. La Figura 2, muestra el promedio de 10 muestras para cada SBC del porcentaje de uso de CPU por segundo de Python y Java, utilizando el proceso que se describió en las Figuras 1(a-b). Como se puede observar el hardware de la SBC influye en el rendimiento del lenguaje de programación, Python presenta mejor rendimiento que Java en equipos de un solo núcleo, como lo es la Raspberry Pi Zero W, pero en equipos con múltiples núcleos Java exhibe un rendimiento mayor al distribuir con mejor eficiencia la carga de los procesos y por lo tanto termina antes dicho proceso.
  • 247. 246 120 100 80 60 40 20 0 RPI Zero W RPI 3B RPI 3B+ RPI 4 LattePanda Alpha Python 98.93699 24.99245 24.11424 23.65511 15.28125 Java 88.69143 49.96938 44.3525 39.02396 38.3475 Dispositivos Fig 2. Porcentaje de uso de cpu de diferentes SBCs. 3.2 Pruebas internas Se utilizaron los métodos propios con los que cuentan los lenguajes Java y Python para calcular el tiempo de ejecución de los programas. En Java se empleó el método System.nanoTime() aplicándolo al inicio de cada método de cifrado-descifrado y al final del proceso. Para Pyhon se empleó el método time(), al igual que con Java se calculó al inicio y al final, se restó y el resultado se presentó en segundos. 3.2.1 Tiempos de ejecución Pese a que en la mayoría de las SBC Java demostró una velocidad superior a Python, este último va reduciendo cada vez su tiempo conforme el hardware es más potente, y en el caso de la Lattepanda llego a superarlo, teniendo Java un incremento en los tiempos respecto a la Raspberry pi 4 y Python una reducción. Esto puede deberse quizás a que la Lattepanda solo dispone de dos núcleos físicos y dos lógicos, o a la arquitectura de los procesadores, ya que Raspberry trabaja con RISC ARM de 64 bits y Lattepanda trabajan con arquitectura CISC Intel de 64 bits, entre otros posibles factores. La Figura 3 muestra los resultados de los tiempos en segundos para cifrar y descifrar una imagen completa de Lena de 128 x 128. Fig 3. Tiempo en segundos, para cifrar la imagen de Lena 128 x 128 en distintas 10 9 8 7 6 5 4 3 2 1 0 RPI Zero W RPI 3B Python 9.298205 2.997902 Java 0.613773 0.25251 RPI 3B+ 2.553881 0.223082 Dispositivos RPI 4 1.138366 0.107211 LattePanda 0.210788472 0.322759 %Uso de CPU Tiempo en segundos
  • 248. 247 SBCs. 3.2.2 Análisis de líneas de código y peso de los archivos. Se hizo un análisis de las líneas de código necesarias para programas sencillos, tales como: ordenamiento, búsqueda y recursividad, así como un análisis del tamaño que ocupan los archivos generados (.py, .jar). Para el conteo no se tomaron en cuenta las líneas comentadas ni vacías, únicamente se consideran las que tienen código; también se contemplan las llaves que abren y cierran, ya que cumplen con una parte importante, aunque puede ser una desventaja para Java. Por último, se agregó a Python un Main el cual es opcional en este lenguaje, pero en Java es obligatorio [5][13][14][15]. La Tabla 2 muestra una comparativa del código escrito en Java y Python, considerando el número de líneas y el tamaño de los archivos utilizados en los algoritmos de ordenamiento burbuja, calcular el factorial de un número, búsqueda secuencial y calcular los primeros 10 números de la serie Fibonacci. Tabla 2. Líneas de código requeridas para cada método y su peso en bytes [13][14][15]. Algoritmo Lenguaje Líneas de código Tamaño del archivo (bytes) Burbuja Python 12 455 bytes Java 23 1,838 bytes Factorial Python 8 277 bytes Java 14 1,376 bytes Búsqueda secuencial Python 11 430 bytes Java 18 1,947 bytes Fibonacci Python 8 266 bytes Java 15 1625 bytes 4. Conclusiones Al utilizar las diferentes SBCs con el mismo sistema operativo Dietpi, el análisis fue posible gracias a la estandarización, por lo tanto, es más exacto. Se pudo demostrar que el hardware tiene un impacto en el rendimiento de los lenguajes ya que mejora conforme es más potente. La mayoría de las SBC disponen de un CPU con 4 núcleos ya sean físicos o lógicos, como el caso de la Lattepanda Alpha que dispone de 2 núcleos físicos y 2 lógicos; salvo el caso de Pi Zero W con un solo núcleo. A manera de reflexión en base a la experiencia adquirida con distintos lenguajes, consideramos que lo que ha hecho tan populares a Java y Python fue que estos introdujeron una serie de “comodidades” para los programadores, que si bien, no son del todo indispensables, marcaron un antes y un después para los programadores, ya que facilitó su trabajo, lo cual consideramos que debe ser un punto de observación para todos aquellos interesados en el desarrollo de algún lenguaje de programación, tanto los existentes como los nuevos. Las pruebas mostraron que Java tiene un mayor rendimiento en cuanto al porcentaje de uso de CPU y velocidad respecto a Python, salvo algunas excepciones como son la Raspberry Pi Zero W y la Lattepanda; sin embargo, Python resulta más simple de leer y de plasmar conceptos o ideas y llevarlos a funcionar, no obstante, los conceptos lógicos de la programación de ambos lenguajes son muy similares, puesto que la lógica de programación es algo que comparten todos los lenguajes. Este trabajo se desarrolló para que los programadores determinen que lenguaje de programación es más conveniente utilizar, dependiendo del tipo de SBC con el que van a trabajar, para que puedan aprovechar al máximo los recursos de hardware o adquieran el dispositivo más óptimo. 5. Referencias [1] Paul Xavier Paguay Soxo, Rosman José Paucar Córdova, and Angel Patricio Flores Orozco, "Evaluación del rendimiento de la transferencia de imágenes en aplicaciones IoT entre los lenguajes de programación Java y
  • 249. 248 Python," Ciencia digital, vol. 3, no. 3.4, pp. 327-341, Sep. 2019. [2] Zakaria Alomari, Oualid El Halimi, Kaushik Sivaprasad, and Chitrang Pandit, "Comparative studies of six programming languages," 2015. [3] Selina Khoirom, Moirangthem Sonia, Borishphia Laikhuram, Jaeson Laishram, and Tekcham Davidson Singh, "Comparative Analysis of Python and Java for Beginners," International Research Journal of Engineering and Technology (IRJET), vol. 07, no. 08, pp. 4384-4407, Feb. 2020. [4] Stephen J. Humer and Elvis C. Foster, "A comparative analysis of the c++, java, and python languages," Computer science and engineering, Dec. 2014. [5] E Insanudin, "Implementation of python source code comparison results with java using bubble sort method," vol. 1280, no. 3, pp. 1-9, 2019. [6] Jorge Aguilar Santiago, Maricela Jiménez Rodríguez, and Octavio Flores Siordia, Detección, reconocimieto y cifrado facial selectivo, implementando técnicas de criptografía y esteganografía basadas en caos, 2020, Tesis para obtener el grado de Maestro en Ciencias. [7] Ismael López Quintero, Curso avanzado de Java, 1st ed. Tarragona, España: Alfaomega, 2017. [8] Arnaldo Pérez Castaño, Python fácil, 1st ed. Barcelona, España: Alfaomega, 2016. [9] Aaron Newcomb, Make linux for makers understanding the operating system that runs raspberry pi and other maker SBCs, 1st ed. San Francisco, USA: Maker Media, 2017. [10] Raspberry Pi. [Online]. https://www.raspberrypi.org/products/ [Consultado el: 2021-06-25] [11] Lattepanda. [Online]. http://www.lattepanda.com/products [Consultado el: 2021-06-25] [12] Javier Medina, Pruebas de rendimiento TIC. 07, 2014. [13] (2021, May) Wikipedia. [Online]. https://es.wikipedia.org/wiki/Ordenamiento_de_burbuja [Consultado el: 2021- 06-18] [14] (2021, May) Wikipedia. [Online]. https://es.wikipedia.org/wiki/Recursi%C3%B3n [Consultado el: 2021-06-18] [15] (2021, May) Wikipedia. [Online]. https://es.wikipedia.org/wiki/Algoritmo_de_b%C3%BAsqueda [Consultado el: 2021-06-18]
  • 250. 249 Proyecto tiempo-acción: modelo de desarrollo de software, PETAL Patricia Martínez Moreno1 José Antonio Vergara Camacho2 José Eduardo Vado Robles3 1 Universidad Veracruzana. Facultad de Contaduría y Administración Campus Coatzacoalcos. Profesor de Tiempo Completo de la Licenciatura en Ingeniería de Software. pmartinez@uv.mx 2 Universidad Veracruzana. Facultad de Contaduría y Administración. Campus Coatzacoalcos. Profesor de Tiempo Completo de la Licenciatura en Ingeniería de Software. jvergara@uv.mx 3 Universidad Veracruzana. Facultad de Contaduría y Administración. Campus Coatzacoalcos. Matriculado en la Licenciatura en Ingeniería de Software. zs19017397@estudiantes.uv.mx Abstract. This document is made up from the study that, according to a journal of research on the practice of software processes and a review of the literature of the last 15 years, the first step of the project is to unify a software development proposal called PETAL that includes common elements, such as: work team, relationship with clients, development time, pivoting, iterations, technical debt, tests with analysts, tests with customers, maintenance, refinement and quality assurance. Being an informed model with necessary bases to find a middle point in agile methodologies and traditional methodologies. From the agile methodologies, fast processes, and constant elimination of work in search of quality in the final product are taken up, and from the traditional ones, work based on determined and experienced life cycles for greater efficiency in the field of quality. Thus, the research methodology used was qualitative in approach with non-experimental design of descriptive and explanatory scope. As a result, the proposal of the PETAL model is arrived at by describing the interaction with its elements. Finally, it is hoped that, at a later stage, the project will be piloted in the Coordination of Software Development Projects of the same educational institution. Keywords: process, best practices, software, quality, models. 1 Introducción Los modelos o metodología en el desarrollo de software son utilizados para buscar la calidad, siendo de utilidad en el desarrollo organizado, eficiente de tiempos y procesos necesarios para obtener un desarrollo sin problemas de tiempos de entrega. Este documento muestra propuesta de un modelo informado con las bases necesarias para encontrar un punto medio en las metodologías ágiles y las metodologías tradicionales, en donde las metodologías ágiles aplican procesos rápidos y eliminación constante de trabajo en busca de la calidad, y por otro lado, las tradicionales, siendo trabajos con ciclos de vida determinados y experimentados para su mayor eficiencia en el ámbito de la calidad. Los modelos se complementan con procesos de desarrollo, los cuales brindan formas eficientes del manejo de equipo de trabajo, siendo las formas útiles para la administración a nivel de recursos humanos, siendo importante para el trabajo en equipo. Lo principal en la creación de este modelo es su enfoque de optimización en la etapa de pruebas y mantenimiento del software, puntos que se consideran importantes para el aseguramiento de la calidad de un producto de software, así como se reconoce su importancia se reconoce la posibilidad de elaborar soluciones viables, por esto mismo es necesario crear una diferenciación de errores y enfocarse sólo a los más importantes. 2 Elementos del proceso de software Este proyecto se encarga de mantener los cambios (acciones) y sus tiempos de entrega de forma eficiente en un modelo cíclico el cual esta visualizado para tener una mayor sensación a la retroalimentación que se tiene a los clientes y a los analistas del proyecto.
  • 251. 250 La creación de PETAL consiste en la esquematización de principios con buenas prácticas en el desarrollo del software diseñados para su mayor eficiencia en la elaboración de cambios al producto, así como su eficiencia en sus diseños. Este modelo está inspirado en las etapas más simples, de un ciclo de vida en el desarrollo del software, usando medios y técnicas de modelos ágiles, atendiendo la calidad y al mismo tiempo de reacción a problemas con esta. A continuación, se menciona ciertos elementos invisibles por otros autores, pero con importancia en el proceso de desarrollo de software que considero deben ser expuestos. Equipos de trabajo El equipo de trabajo fundamental en aplicar este proceso son 2 analistas 4 programadores y mínimo un cliente, los analistas quienes se encargan de las etapas de análisis y diseño, los programadores atienden la programación y la creación de las pruebas. El equipo sigue las bases y supervisión de la metodología Team Software Process (TSP) proporcionando un marco de trabajo de procesos definidos que está diseñado para dar apoyo a equipos de gerentes e ingenieros a organizar y producir proyectos de software de gran escala, de tamaños mayores con miles de líneas de código (Humphrey W, 1999). El objetivo del TSP es mejorar los niveles de calidad y productividad de un proyecto de desarrollo de software de un equipo, con el fin de ayudarlos a alcanzar acuerdos de costos y tiempos en el mismo desarrollo. Relaciones con clientes La relación de los clientes es cercana y constante, puesto que forman parte activa para la salida y la retroalimentación del producto y son parte del equipo de trabajo de forma activa. En el caso de los clientes finales son los que brindan información necesaria al manipular el sistema proporcionando elementos que abonen hacia la calidad del producto del software y así se generen ligeros cambios para el funcionamiento amigable con los usuarios. Tiempo de desarrollo Los tiempos en este modelo son importantes y se mide constantemente para obtener la eficiencia del trabajo en equipo, utilizando el TSP, donde los tiempos estimados puedan tener mayor variación entre proyectos. Cabe señalar, que en este documento se muestran los tiempos que se consideran para cada etapa del desarrollo al final. Si se toman en cuenta los tiempos de los ciclos y sus enfoques de eficiencia se tendría que el tiempo aproximado para la generación de proyectos medianos con este modelo es de 7 meses con un mes exclusivo para el mantenimiento post salida oficial del producto. Pivoteo El pivote muestra el cómo se adaptan a los cambios de estrategias para el cambio y la adaptabilidad, esto se logra con la etapa de refinamiento, siendo esta la forma de mostrar los enfoques requeridos para la calidad, y administrarlos dependiendo de su importancia, creando un cambio de estrategia a las funciones creadas anteriormente. Este pivote es necesario ser retroalimentado por los clientes, puesto que son las personas que pueden cambiar los puntos de vista en el proceso de desarrollo y que pueden mostrar mejores opciones en la implementación de los requisitos iniciales.
  • 252. 251 Iteraciones Las iteraciones se presentan cada vez que se encuentre cualquier problema o avance, siendo redirigido al análisis o al diseño que son los puntos nodales para trabajar con calidad y donde caen la mayoría de los problemas que se presentan en etapas futuras. Cada iteración ocupa como base la iteración anterior, realizando las funciones como un proceso de cascada, sin embargo, en la mejora de implementar la calidad se realizan las iteraciones con estilos de procesos rápidos, siendo este un punto importante para implementar las buenas prácticas y la velocidad del modelo PETAL. Deuda técnica PETAL lidia con la deuda técnica con los casos de uso que se realizan en la etapa de requerimientos, así como en las reuniones semanales realizando acciones eficientes para la reducción de complejidad de los problemas que se encuentren, se especifica eso en la etapa de análisis. Con base en lo anterior, se dividen y simplifican los procesos en el refinamiento, punto importante para bajar la complejidad que pueda llegar a alcanzar el producto en etapas finales de su ciclo de vida. 3 Metodología A partir de ir tomando notas de la literatura de los últimos 15 años sobre las diversas metodologías ya sean clásicas o ágiles, donde se analiza cada una de las etapas del proceso de desarrollo de software y se identifican elementos nodales que puedan llevar con éxito un producto de desarrollo, la metodología de investigación aplicada fue de enfoque cualitativo toda vez que partir de los hechos, estos mismos se interpretan para llegar esta propuesta. El diseño aplicado fue no experimental con alcance descriptivo y explicativo. Se espera que en una siguiente etapa del proyecto de investigación se aplique de manera experimental en la Coordinación de Proyectos de Desarrollo de Software de la misma institución educativa. 4 Ciclo de vida PETAL El ciclo PETAL está basado en la naturaleza de todo desarrollo de software, incremental. Las etapas se basan en el proceso incremental donde se divide, la etapa de pruebas a pruebas dobles dependiendo de quienes realicen las mismas, así como la suma de una etapa adicional, la cual crea un refinamiento del producto alcanzable después de las interacciones con los usuarios finales. El ciclo de vida PETAL, está basado en la velocidad del producto como en la adaptabilidad para implementar la calidad con base a las respuestas de los clientes. Uno de los puntos principales de este modelo es la programación en pares lo cual requiere que dos programadores participen en un esfuerzo combinado de desarrollo en un sitio de trabajo. Cada miembro realiza una acción que el otro no está haciendo actualmente, dando como resultado un mayor enfoque al flujo de trabajo y a las pocas interrupciones en la etapa de codificación Requerimientos Las relaciones con los clientes serán en el inicio con los requerimientos y al final en la etapa de pruebas. Se testea la calidad del software, viendo los distintos puntos de vista, mejoras del proceso y flexibilidad mayor en los cambios. Los requerimientos se llevan a cabo desde los casos de uso, se entrevista a los clientes directos y después de la entrevista se crean los casos de uso que se requieran, estos casos de uso serán diseñados para que cumplan con las pruebas necesarias para satisfacer los requerimientos requeridos (Unified Modeling Language) llamados criterios de aceptación. Este proceso puede durar 1 – 3 días, en la entrevista y en la forma de elaborar los casos
  • 253. 252 de uso necesarios. Análisis Los equipos de trabajo se administran en el análisis con la finalidad de brindar ideas claras y formas de arreglar distintos problemas de distintas personas involucradas en el proyecto, reasignando los trabajos a realizar, haciendo que la mayoría de los participantes en el proyecto identifique el funcionamiento interno del sistema, estos chequeos y posibles rotaciones se tendrían que hacer semanalmente para su mejor eficacia. En este punto también se analiza el diseño del producto con base en los casos de uso que se realizaron en la etapa anterior, diseño sujeto a cambio constantemente, punto donde el enfoque puede ser adaptado con mayor velocidad. El análisis se basa en la metodología Proceso de Software en Equipo (TSP), y sigue las anotaciones de cada repetición y el plan para su eficiencia dentro del entorno de trabajo (Humphrey W, 1999). Este proceso puede durar 1 – 2 días, siendo importante el análisis de grupo y los tiempos. Diseño En este punto se diseña el diagrama de clases, diagrama de estructura estática que describe al sistema mostrando sus clases, atributos, operaciones, y las relaciones entre los objetos. (Unified Modeling Language). También se realiza el prototipo de la interfaz del usuario a cargo del analista el cual brinda se diseña bajo la usabilidad y accesibilidad. Esta etapa junto con la de análisis son las flexibles del modelo PETAL, etapas que requieren cambios y ajustes de acuerdo con la experiencia de los clientes y a las formas de organizar y mostrar las funciones que requiere el usuario. Este proceso puede durar 2-3 días. Codificación En la etapa de codificación se desarrollan las funciones requeridas por el cliente, este proceso se realiza aplicando la programación en pares. Se necesitarán mínimo 2 pares para el trabajo de múltiples funciones a la par (Beck K, 1999). Esta etapa se cicla e interactúa directamente con la etapa del diseño con la finalidad de programar sistemas intuitivos, además de que sean identificados los errores para su corrección. Este proceso puede durar 2-3 días. Pruebas con analistas Los analistas son los que prueban el software, y estos definen si es presentable a un público externo, teniendo en cuenta los casos de uso iniciales junto con los diseños que se realizados, si en este punto no se cumplen con los requerimientos iniciales. En esta etapa se vuelve a realizar el análisis en esa sección del proyecto o llegar a su eliminación una vez de pasar por el análisis más de 2 veces y se construirá desde un punto anterior. Este proceso puede durar 1-2 días y ser parte de las reuniones semanales en la etapa de análisis. Al llevar a cabo esta etapa se aplican las buenas prácticas. Pruebas con clientes Las pruebas con los clientes se realizan después de las pruebas con los analistas, lo que da el control al interactuar con los usuarios finales, esto busca fortalecer la calidad del software rápido y eficaz, estas pruebas pueden realizar cambios reactivos dependiendo de las necesidades y acciones de los clientes. Estas pruebas pueden resultar positivas con pequeños cambios, los cuales deberán refinarse, y resultaría en la última repetición de este proceso. Este proceso puede durar 1-2 días. Mantenimiento
  • 254. 253 El mantenimiento de un producto terminado en este modelo se realiza hasta un mes después de la terminación del proyecto, esto para evitar caer en múltiples peticiones de agregar funcionalidades adicionales, así como proyectos fallidos que se ciclarían sin sentido, siendo necesario iniciar desde 0 el proyecto. En el mantenimiento se realizan correcciones de errores después del lanzamiento oficial en caso de encontrar errores, actualizaciones del producto o el refinamiento del producto. Este proceso puede durar 3-5 días. 5 Resultado El resultado de todo este análisis, revisión y documentación antes descritas, culminan y se resume es el modelo PETAL (Ver figura 1). El modelo, muestra el comportamiento en la generación de problemas en el desarrollo del software, los analiza y los intenta resolver lo más rápido posible, ocupando sus ciclos en etapas propensas a desarrollar y/o encontrar errores y código sin calidad. Figura 1. Modelo PETAL. 6 Discusión Se ha observado que el refinamiento y la calidad son elementos preponderantes dentro de esta propuesta de ciclo de vida, el cual es necesario discutir y aclarar al respecto. En el proceso de refinamiento es necesario saber los problemas y recomendaciones de los usuarios que participaron en la etapa pruebas con clientes, así como aceptación o no al usar el producto, esto determina el proceso de reanalizar para la mejor experiencia del usuario final. Este refinamiento incluye los procesos de interfaz de usuario (frontend) hasta la programación del producto (backend). Los refinamientos serán divididos en principales y secundarios, los principales son las experiencias negativas que no cumplan con las expectativas de los usuarios y son refinamientos de vital importancia. Los secundarios son las experiencias que se pueden mejorar, sin romper la funcionalidad a las que están contribuyendo, estos refinamientos suelen resolverse rápidamente, por esto mismo su prioridad es menor y se realizan si se tiene el tiempo suficiente para su elaboración. Este proceso puede durar 1-2 días. Esto es uno de los seguramientos de calidad, siendo la propuesta inicial para la creación del modelo PETAL, pero se pueden ocupar los métodos anterior mente mencionados buscando el mayor potencial de calidad, se incorporaron distintas metodologías y especificaciones para contribuir con la calidad esperada. La calidad se aplica cuando se integra el modelo TSP y en la eficiencia de trabajo en equipo, también se observa la aplicación de las buenas prácticas en las decisiones de los analistas dentro de la etapa de análisis. Además, los artefactos generados como los casos de uso después de las entrevistas, y la generación de pruebas dan como resultado la aceptación a los requerimientos iniciales. Siguiendo con las etapas en el aseguramiento de la calidad se propone como estrategia la programación en pares, siendo importante para el trabajo en equipo y la eficiencia de la producción del proyecto.
  • 255. 254 Con relación al tiempo-acción se dividieron las pruebas de analistas y usuarios lo que genera eficiencia en la corrección de errores y aumento de calidad. La etapa de refinamiento que busca la calidad final del producto se prioriza lo importante a trabajar instantáneamente o en su defecto aquello que requiere ser eliminado y/o reconstruido para el seguimiento de la calidad; esta etapa es exclusiva para la reacción de contenido que no cumpla con las expectativas de los usuarios ya sea por un erróneo diseño o mala implementación. 7 Conclusión El modelo de desarrollo PETAL con su visón de llegar a un punto medio entre los procesos en donde se generan múltiples artefactos en el aseguramiento de la calidad, a lo que cabe señalar que no se debe de ver en su totalidad como un modelo de desarrollo rápido, puesto que cuentan con ciertas estrategias de los modelos clásicos, reduciendo ligeramente su eficiencia en la velocidad. Es un modelo que para especializarse en implementar las buenas prácticas fue necesario incorporar estrategias de trabajos que se muestran a lo largo del mismo, creando pasos extra, pero eficientes logrando obtener la calidad esperada. Cabe mencionar que, el aplicar una metodología paso a paso, detalladamente como se indica en la teoría suele no existir, y muchas veces no se lleva a cabo por razones que se derivan en una mala gestión administrativa, en riesgos no contemplados y demás imponderables. Finalmente, se espera que en una siguiente etapa del proyecto, sea aplicado de manera experimental en la Coordinación de Proyectos de Desarrollo de Software de la misma institución educativa. 8 Referencias [1] Alqahtani, J. (2019). https://iarjset.com/wp-content/uploads/2019/12/IARJSET.2019.61204.pdf. IARJSET, 6(12), 14–16. https://doi.org/10.17148/iarjset.2019.61204 [2] Pressman. (2021). Ingenieria De Software (7.a ed.). MCGRAW HILL EDDUCATION. [3] Beck, K. (1999). Extreme Programming Explained: Embrace Change (US ed). Addison-Wesley Pub (Sd). [4] Humphrey, W. S. (1999). Introduction to the Team Software Process (1.a ed.). Addison-Wesley Professional. [5] Linares Pons, N., Piñero Pérez, Y., Rodríguez Stiven, E., & Pérez Quintero, L. (2014). Diseño de un modelo de Gestión del Conocimiento para mejorar el desarrollo de equipos de proyectos informáticos. Revista española de Documentación Científica, 37(2), e044. https://doi.org/10.3989/redc.2014.2.1036.
  • 257. 256 Diseño de un sistema de monitoreo para senderos seguros en áreas naturales protegidas y su relación ante la pandemia COVID 19. Vega Gómez Carlos Jesahel 1 Barusta Sanchez Ángel Eduardo1 Díaz Torres Viridiana Guadalupe 1 Coronado Mendoza Alberto1 Camas Náfate Mónica Patricia 1 1 Centro Universitario de Tonalá, Universidad de Guadalajara, Av. Nuevo Periférico #555. CP 45425, Tonalá, Jalisco, México carlos.vega@cutonala.udg.mx, angel.barusta.95@gmail.com, viri.diaz.torres.97@gmail.com, alberto.coronado@academicos.udg.mx, monica.camas9831@academicos.udg.mx Resumen. La obtención de datos y su análisis es de suma importancia para cualquier investigación, pues con ellos podemos responder a preguntas o anticiparnos a situaciones que ameriten una mejora sustancial a problemáticas planteadas, es por ello que el desarrollo de un sistema electrónico de monitoreo de senderos, nos permite generar, identificar datos y tomar decisiones sobre posibles implementaciones para mejorar la seguridad de los usuarios en colonias que se encuentran en condiciones de vulnerabilidad como es el caso de Lomas del Centinela en Zapopan, pues los vecinos utilizan senderos dentro del Bosque del Centinela para desplazarse y se ven afectados por robos y violencia, sin embargo, ante la situación global por la pandemia del COVID 19 el uso de espacios abiertos ha ido en aumento y dicho bosque también es una zona de esparcimiento por tanto el conocer los hábitos, horarios y afluencia de personas favorece la toma de decisiones. Palabras clave: Senderos seguros, Monitoreo, Áreas naturales Abstract. Obtaining data and its analysis is of the utmost importance for any investigation, since with them we can answer questions or anticipate situations that warrant a substantial improvement to the problems raised, which is why the development of an electronic trail monitoring system, allows us to generate data, identify and make decisions about possible implementations to improve the safety of users in neighborhoods that are in vulnerable conditions, such as Lomas del Centinela in Zapopan, since the neighbors use trails within the Bosque del Centinela to move and are affected by robberies and violence, however, given the global situation due to the COVID 19 pandemic, the use of open spaces has been increasing and said forest is also a recreational area, therefore knowing the habits, schedules and the influx of people favors decision-making. Keywords: Safe trails, Monitoring, Natural areas is. Introducción Las comunidades que se encuentran con rezagos en los servicios públicos como son el suministro de agua y alcantarillado, energía y transporte por mencionar algunos, se ven en la necesidad de identificar medios para obtenerlos, aunque de ello dependa hasta su propia seguridad. En este documento se aborda la necesidad de acceso a una colonia que no cuenta con una calidad adecuada de servicios públicos, lo que provoca que un parte de la población se desplace por un área natural llamada Bosque del Centinela (Figura 1) a cargo del municipio de Zapopan, Jalisco, México; cabe señalar que en dicho sendero los usuarios reportan robos en algunos momentos del día, pero, aunque parezca irrisorio es un espacio que es usado por usuarios que no son vecinos de dicho bosque pero es muy concurrido para actividades de esparcimiento.
  • 258. 257 Fig. 1 Bosque del Centinela donde se aprecian los senderos. Tomada de Google maps Es por ello que investigadores de la Universidad de Guadalajara del Centro Universitario de Tonalá, participan en el Proyecto de Generación distribuida inteligente, una nueva cultura energética incluyente para la Zona Metropolitana de Guadalajara, donde se aplicaron en un primer momento una encuesta para conocer las problemáticas que apremian a la comunidad y sus necesidades, donde una de ellas es el uso de senderos y su interés por contar con senderos seguros y de preferencia iluminados en dicho espacio. Ahora bien, la pandemia del SARS- 2 COVID 19, ha cambiado de diferentes maneras las formas en que las comunidades y los individuos interactúan, pues ante el cierre de espacios públicos y privados las personas tuvieron que establecer home office, aula en casa o bien realizar actividades de entretenimiento para grandes y chicos, como realizar ejercicio en los espacios de sus viviendas. Llevando con ello al confinamiento en casa se han desarrollado por ejemplo nuevos esquemas de comunicación, que, aunque existían eran más común su uso en espacios académicos o privados, por ejemplo, el uso de plataformas de videoconferencias o la elaboración de videos, pero en el caso del esparcimiento el SARS 2 COVID 19 provocó un incremento en la compra de equipos de ejercicios. Esto debido a que los clubes, gimnasios y áreas cerradas destinadas a la promoción de la actividad física, fueron temporalmente clausuradas, provocando una evolución en sus modelos de negocios. Destacaron la renta y venta de equipos para hacer ejercicio, así como también, la elaboración de estrategias de entrenamiento físico y nutricional por vías electrónicas. Económicamente hablando, esta estrategia les permitió conservar empleados y sueldos ante la situación de crisis debido al confinamiento. El fomento al cuidado físico dentro del confinamiento y las estrategias tomadas para ello, hicieron que el uso de la tecnología de telecomunicaciones aumentara, además de valorizar la necesidades que debe satisfacer los espacios abiertos para lograr los mismos beneficios de los obtenidos en el home fitness, además de los agregados en salud mental que representa dicha actividad física en espacios abiertos. Son características que son necesarias conocer para poder darles alternativas de solución. [1,2,3] El primer caso de COVID-19 se detectó en México el 27 de febrero de 2020. El 30 de abril, 64 días después de este primer diagnóstico, el número de pacientes aumentó exponencialmente, alcanzando un total de 19.224 casos confirmados y 1.859 (9,67%) fallecidos. En el estado de Jalisco, por citar un ejemplo, la Universidad de Guadalajara se procedió a la suspensión de clases presenciales a partir del próximo martes 17 de marzo y esto fue prolongándose hasta la fecha de arranque del semestre 2021B, 10 de agosto del 2021. Paulatinamente, y de acuerdo a las normas publicadas por la secretaría de salud, se ha regresado a las actividades.[4,5] Sin embargo, después de meses en confinamiento los primeros espacios en como las áreas naturales, es por ello que la implementación de un sistema de monitoreo para senderos seguros permitiría conocer la afluencia, los hábitos de uso, identificar la posibilidad de instalación de
  • 259. 258 infraestructura de iluminación para la mejora en la seguridad de los usuarios flotantes y los vecinos que la utilizan a diario para desplazarse al trabajo o escuela. Por lo que es necesario conocer la afluencia y hábitos de de desplazamientos en dichas áreas abiertas; así como también, los beneficios o inconvenientes que se encuentran los usuarios de dichas rutas. Esto se demostró en un estudio realizado en Noruega después del confinamiento obligatorio dictaminado por el gobierno. Dicho análisis se apoyó de una metodología de obtención de datos, el cual, analizaba las rutas principales recorridas dentro de un área determinada, y con una encuesta posterior para determinar la relación social del área libre con respecto a los beneficios encontrados por los transeúntes. Además de realizar una comparación de la misma área previo al confinamiento y después del mismo. Las actividades recreativas aumentaron un 240% durante las cinco semanas de cierre general (en casa) y se mantuvieron hasta el período de vacaciones de verano en junio/julio, cuando bajaron a los niveles básicos. Sin embargo, durante agosto volvieron a aumentar al 89% por encima de la línea base. Aunque la actividad aumentó en todas las zonas urbanas de uso del suelo, tras el cierre se produjo un cambio de las zonas residenciales y comerciales a los espacios verdes urbanos, incluidos los bosques y las áreas protegidas. Los paisajes culturales y las zonas protegidas recibieron niveles de actividad desproporcionadamente altos en relación con la longitud de los senderos recreativos disponibles en ellos. Los usuarios eran adolescentes (13-19) mostrando un aumento de cuatro veces en su cuota de la base de usuarios de Sistema de monitoreo, por medio de una aplicación móvil, al comienzo del cierre.[6]. Estudios como esos y tendencias mostradas por prestadores de servicios, permiten dar un panorama mejor sobre las necesidades del usuario, con respecto a calidad de vida y espacios abiertos, tal como lo demuestra un estudio realizado para la Ciudad de México. Este análisis permitió detectar las principales áreas de oportunidad y como el usuario convive con las áreas verdes cercanas a su hogar, y la necesidad de adaptabilidad de su hogar para actividades de esparcimiento. [7] 2 Estado del arte de la problemática En la colonia de Lomas del Centinela en Zapopan, Jalisco, se tiene una población de 5,400 habitantes según el censo de población y vivienda del INEGI en el 2010 y en ella una de sus problemáticas es el transporte público, buena parte de la población utiliza senderos en el Bosque del Centinela para ir de la colonia a la Avenida de las Cañadas, en este recorrido de aproximadamente 1.9 km, en estos senderos se encuentran vulnerables ante asaltos, es por ello que se requiere identificar cuáles de estos senderos son los más utilizados con el fin de proponer un sendero seguro y que utilice alguna tecnología que les permita tener mayor seguridad, como luminarias o cámaras de seguridad. Ahora bien, aunque la problemática nace de una necesidad de contar con senderos seguros, este tipo de sistemas nos permitiría conocer la afluencia y horarios de personas que utilizan el bosque para fines de esparcimiento e identificar qué acciones se pueden implementar en tiempos de pandemia y post pandemia por medio de una constelación de los sistemas electrónicos de monitoreo. 3 Metodología A partir del Proyecto “Generación distribuida inteligente, una nueva cultura energética incluyente para el Área Metropolitana de Guadalajara” de los Programas Estratégicos Nacionales de CONACYT, donde participa la Universidad de Guadalajara con sus Centros Universitarios de Tonalá y de Arte Arquitectura y Diseño y el Laboratorio de Ciencias de las Ciudades el equipo participó en la elaboración de una encuesta en la que se cuestionó a la comunidad de la colonia de Lomas del Centinela sobre las problemáticas más apremiantes dando como resultado que la tercer problemática más apremiante es la necesidad de senderos seguros en el interior del bosque, por tanto se comenzó con el análisis de campo en el que se identificó el sendero más utilizado con una distancia de 1.96 km así mismo se revisaron posibles espacios para la instalación de sistemas de generación de energía
  • 260. 259 solar fotovoltaica aislada. En la figura 2 se muestra el recorrido al interior del bosque y los senderos utilizados por vecinos para sus actividades del diario y como esparcimiento para deportistas. Fig. 2 Recorrido y senderos utilizados por vecinos de Lomas del Centinela y como esparcimiento. Una vez identificados estos espacios, se procedió al diseño, construcción y operación del sistema de monitoreo que se instalará en los senderos del Bosque del Centinela el cual cuenta con: Módulo de comunicación GSM GPRS SIM800L Radar de microondas RCWL -0516 Baterías de 8800 mha 3.7 V Litio Panel Solar de 5 V a 250 mA monocristalino Tarjeta micro Sim 2G, 3G, 5G Fig. 3 Tarjeta armada para sus pruebas físicas, para detectar fallas antes de su instalación y montaje en la ubicación.
  • 261. 260 4 Pruebas de comunicación Las pruebas de operación se realizaron mediante la utilización de una micro sim, bajo la red de telefonía celular, utilizando comandos AT programados bajo un SoC de control de la placa de desarrollo “T-Call” de la marca “LLEGO®” la cual cuenta con un módulo SIM800L y un módulo WI-FI ESP32. Su fuente de energía es suministrada por paneles fotovoltaicos. A pesar de que la placa de desarrollo cuenta con un módulo de conexión WI-FI, toda la comunicación del proyecto se desarrolla mediante tecnología 3G, a continuación describimos gráficamente la operación del dispositivo, donde definimos “MaxRegistros” el cual es igual a n+100, donde “n” es el valor almacenado en la base de datos y "N" el valor almacenado en la memoria interna de la tarjeta. Fig. 4 Diagrama de operación del sistema de comunicación de la tarjeta. La placa se mantiene en un estado de hibernación donde solo consume 0.3mA, en este estado de sueño profundo esp_deep_sleep _start(); solo mantendremos energizado el módulo de I/O de RTC, necesario para despertar la placa del sueño profundo mediante una señal externa (EXT 0). [8] La señal externa será la que el módulo sensor de presencia RCWL envíe al detectar una perturbación de presencia, el cual dicho sensor se ubica para que registre una lectura de 180° desde un punto vertical. Es importante aclarar que la memoria interna del módulo se refresca cada dia, es decir se reinicia el conteo, la estructura del path es la siguiente: "/PEATONES/"+String(NOMBRE_PCB)+String(TIMESTAMP)+"/DATA"); Fig. 5 Visualización en la actualización de los datos. Para el código de programación y utilización del módulo SIM800L, usaremos dos librerías para arduino. La primera será “ArduinoOTA.h” y la segunda “AtsurabzaidFirebaseGSM.h” la última la
  • 262. 261 desarrollamos para los comandos AT y la comunicación con el modem del SIM800L, así como los protocolos HTTPS necesarios para enviar la información a un servidor. [9] Fig. 6 Visualización del puerto serial “Métricas” Aquí mostramos la salida seria de la información procesada y descrita en el diagrama de operación. Podemos apreciar también la estructura de envío de datos en un formato JSON y el número de peatones registrados en la memoria interna. La siguiente actividad es la elaboración con impresión 3D de la carcasa que proporcionará seguridad al sistema de monitoreo, la cual debe ser mimetizada con el entorno, para evitar que sea robada. La figura 7 muestra el diseño en CAD como propuesta de un nido case y el diseño para la impresión 3D.
  • 263. 262 a) Esquema 3D para la propuesta del nido-case. b) Diseño y laminado para impresión 3D Fig. 7 Visualización del diseño propuesto para la instalación del sistema. 5 Resultados experimentales El sistema cuenta con un rango de operación de largo alcance debido a que utiliza la red de telefonía móvil, de los cuales es necesario contar con un plan de datos para el envío de la información a internet, sin embargo con la ayuda de un código eficiente pudimos hacer que el uso de los datos sea el menos posible para nuestro caso de estudio, por tanto debemos contar con la cobertura de red celular. Los resultados de consumo y tiempos del sistema se muestran en la tabla 1. Procedimiento Resultado Consumo en estado de hibernación 300 uA Consumo nominal 70 mA Tiempo de reinicio de timer 1 min 30 seg Almacenamiento 512 valores de 0-255 Datos utilizados 523.5kb/día promedio Corriente de carga necesaria 1.4 A 1 Batería de litio 8800mAh 2 paneles 7cm X 11cm 250mA 5V Módulo de carga 1S 1A Módulo Boost 2-16v Plan de datos móviles $ $50 MXN Rango del sensor RCWL 7-9 mts 180° Tabla 1. Respuesta, tiempos y consumos. En la tabla 1, se muestra el consumo de datos, los tiempos en los que el sistema se encuentra encendido y de respuesta con respecto al sistema de comunicación del sistema de monitoreo a detectar la presencia de la persona.
  • 264. 263 Fig. 8 Diagrama de funcionamiento general del proyecto. La figura 8 muestra el esquema gráfico del sistema a implementar, el cual estaría colocado en un árbol para que pase desapercibido. El sistema consta de una tarjeta de comunicación 2G, 3G y 4G, un sensor de presencia con un rango de 180° de detección, el cual al detectar una presencia éste enviará los datos obtenidos a la tarjeta de comunicación, que almacenará por día. Una vez terminado dicho ciclo los datos obtenidos serán tratados para analizar el flujo de peatones en la zona, estos datos podrán ser visualizados en sitio web, desde un equipo de cómputo o un dispositivo móvil. La importancia de los datos, son las acciones que se pueden hacer, como, mejorar el alumbrado y vigilancia, incluso atención de emergencia por parte de los guardabosques, detección de incendios, análisis de fauna, análisis meteorológicos y aplicaciones lógicas para ciudades inteligentes. 6 Conclusiones y trabajos futuros de la investigación Como conclusiones tenemos que el sistema de monitoreo ha pasado las pruebas de carga y descarga, así como él envió de información de forma correcta en las actividades de laboratorio. Es importante mencionar que las pruebas de campo se efectuarán antes de terminar el mes de septiembre y con ello tendremos la obtención de datos para su análisis y toma de decisiones sobre las ruta más adecuadas y seguras para el movimiento de los vecinos de Lomas del Centinela hacia la salida a Avenida de las Cañadas a través del Bosque del Centinela. Como trabajo a futuro se contempla la instalación de 10 de estos circuitos permitiendo desarrollar una constelación y a través de una red neuronal para clasificar a las rutas que las personas tomen. Parte interesante de este proyecto es que, aunque está diseñado para solventar una problemática de movilidad y seguridad, la connotación de este sistema con la actual pandemia, puede ayudar a identificar la afluencia y horarios de uso del espacio permitiendo obtener información valiosa para los administradores del Bosque. Una valiosa aportación de este sistema es el posible uso en zonas como el Bosque de la Primavera, parques, jardines y otros sitios abiertos de esparcimiento para conocer su uso y aprovechamiento para la toma de decisiones por parte de los administradores de los espacios.
  • 265. 264 7 Referencias [1] A. Rodríguez, «A falta de gimnasio… cuarentena impulsa la demanda de bicis, caminadoras y escaladoras en casa,» El Financiero, pp. https://www.elfinanciero.com.mx/empresas/covid-19-impulsa-la-demanda-de-bicis-caminadoras-y- escaladoras-en-casa/, 25 Junio 2020. [2] F. Vázquez, «Home Fitness, más demanda para las apps,» El Economista, pp. https://www.eleconomista.com.mx/deportes/Home-Fitness-mas-demada-para-las-apps-20200326-0148.htm, 20 Marzo 2020. [3] L. S. Velázquez, «El acondicionamiento físico se reinventa en la pandemia,» Gaceta U de G, pp. http://www.gaceta.udg.mx/el-acondicionamiento-fisico-se-reinventa-en-la-pandemia/, 12 Mayo 2020. [4] V. Suárez, M. Suarez Quezada, S. Oros Ruiz, and E. Ronquillo De Jesús, “Epidemiología de COVID-19 en México: del 27 de febrero al 30 de abril de 2020,” Rev. Clínica Española, vol. 220, no. 8, pp. 463–471, Nov. 2020, doi: 10.1016/j.rce.2020.05.007. [5] U. d. Guadalajara, «Universidad de Guadalajara, UdG,» 13 Marzo 2020. [En línea]. Available: https://www.udg.mx/es/noticia/comunicado-ante-contingencia-por-covid-19-la-udeg-suspende-clases-presenciales. [Último acceso: 07 Agosto 2021]. [6] Z. S. Venter, D. N. Barton, V. Gundersen, H. Figari, and M. S. Nowell, “Back to nature: Norwegians sustain increased recreational use of urban green space months after the COVID-19 outbreak,” Landsc. Urban Plan., vol. 214, no. April, p. 104175, 2021, doi: 10.1016/j.landurbplan.2021.104175. [7] C. Mayen Huerta and A. Utomo, “Evaluating the association between urban green spaces and subjective well-being in Mexico city during the COVID-19 pandemic,” Heal. Place, vol. 70, no. June, p. 102606, 2021, doi: 10.1016/j.healthplace.2021.102606. [8] Espressif Systems. (06 de Agosto de 2021). GitHub. Obtenido de GitHub: https://docs.espressif.com/projects/esp- idf/en/latest/esp32/api-reference/system/sleep_modes.html [9] IndustriialPro and MobilityPro Gateway Wireless Modems. (Mayo de 2016). Red Ion. Obtenido de Red Ion: https://www.redlion.net/sites/default/files/213/4196/AT%20Commands%20Reference%20Document.pdf
  • 266. 265 El uso de Blockchain como generador de innovacion en la transparencia y eficiencia en instituciones. Victor Manuel Zamudio Garcia Universidad Politécnica Metropolitana de Hidalgo vzamudio@upmh.edu.mx Boulevard Acceso a Tolcayuca 1009, Ex-Hacienda de San Javier, Tolcayuca, Hidalgo, México Celular 7711299883 Resumen En este trabajo se analizo el impacto del uso de la tecnología de Blockchain, investigando las posibilidades que esta herramienta ofrece y su potencial a través de sus ventajas en diferentes sectores. Actualmente, se puede utilizar Blockchain para gestionar actividades financieras por ejemplo la información contenida en un libro contable distribuido, se actualiza en tiempo real y es permanente, no se puede eliminar la información y es públicamente visible, es transparente. Se diseño un prototipo de Blockchain, que permitió revisar la protección de información, agilizar procesos para lograr el cumplimiento de acuerdos entre empresa y cliente. El trabajo metodológicamente esta estructurado con un tipo de investigación aplicada, de acuerdo a su nivel de profundización, es explicativa por que busca no solo el qué sino el porqué del fenómeno y cómo han llegado al estado en cuestión, de acuerdo al grado de manipulación de variables, es cuasi experimental. Abstract In this work, the impact of the use of Blockchain technology was analyzed, investigating the possibilities that this tool offers and its potential through its advantages in different sectors. Currently, Blockchain can be used to manage financial activities, for example the information contained in a distributed ledger, as it is updated in real time and is permanent, the information cannot be eliminated and it is publicly visible, it is transparent. A Blockchain prototype was designed, which allowed reviewing the protection of information, streamlining processes to achieve compliance with agreements between the company and the client. The work is methodologically structured with a type of applied research, according to its level of deepening, it is explanatory because it seeks not only the what but the why of the phenomenon and how they have reached the state in question, according to the degree of manipulation of variables, it is quasi experimental. Palabras claves: Blockchain, Automatización, Información, Transacciones, Seguridad. 1 Introducción El Blockchain, tiene la posibilidad de ser utilizado para enviar dinero de manera directa y segura de una persona a otra sin pasar por un banco, ahora, el mundo financiero utiliza sistemas híbridos como el Banco de Inglaterra (Allison, 2015), Visa (Arnold, 2016), sistemas de agilización y mejora de la seguridad de transacciones inmobiliarias, como el registro de la propiedad o aplicaciones para la mejora de la transparencia en las cuentas públicas (Goswami, 2016), con lo que permite al usuario saber con transparencia la situación de las operaciones realizadas, al menos con respecto a la información que se registre de manera estructurada. La digitalización de la gestión de toda empresa, especialmente en las más pequeñas, está aún en proceso,
  • 267. 266 principalmente a causa de factores como el desconocimiento, infraestructura tecnología y el aspecto regulatorio, este último dirigido a desincentivar el fraude, es entonces que Blockchain puede garantizar entre empresas y clientes, confidencialidad de la identidad de los operadores, como el archivo o registro indeleble de cada una de las transacciones, evitando riesgos en la identidad segura y permanente que se podría lograr con esta tecnología, gracias al uso de transferencias cifradas para conseguir una comunicación segura de los datos (Atencio Flores & Mamani Machaca, 2017). Hay aplicaciones con posibilidades para certificar autenticidad de todo tipo de objetos y actos, combatir el fraude como el de Provenance que pretende controlar la vida e historia de sus vinos para permitir al consumidor conocer todo el recorrido hasta llegar a su mesa (Parker, 2015) o el caso concreto de Ujo Music que intenta asegurar la gestión de los derechos de autor musicales (Capps, 2016). Igualmente Blockchain ayuda en las actividades de las empresas como generar y conocer estados de las cuentas actualizadas en tiempo real desde un dispositivo móvil, la contabilización automática de gastos y facturas recurrentes o la conciliación bancaria con un solo clic. Otra aplicación del Blockchain, son los contratos inteligentes (smart contracts), estos se ejecutan de modo automático cuando se cumplen las condiciones especificadas y consensuadas en el contrato. Con esto se ayuda a lograr la automatización de procesos, lo que permite una herramienta de inteligencia de negocio que facilite la toma de decisiones en tiempo real, mejorando la logística interna de una empresa, tiempos en actividades de diferentes procesos internos, la atención con certeza a problemáticas que requieren ayuda para la manipulación de la información privada, aprovechando la seguridad que brinda con la certeza de que no podrán ser modificados los registros por un tercero y no haya personas que funjan como intermediarios que puedan vulnerar la seguridad de la información. El uso de contratos inteligentes y firmas digitales a través de Blockchain, permite tener seguridad en tal cantidad y con tal inmediatez, que hace innecesarios tareas relacionadas con la intermediación, la verificación y las labores repetitivas. Lo anterior permite en las empresas, identificación de la necesidad de uso de aplicaciónes de tecnologías disruptivas en la práctica, aprovechando los avances y sus perspectivas para que con la funcionalidad de las herramientas tecnológica puestas a disposición por los agentes del mercado, se logre cambiar los problemas asociados a paradigmas rígidos con el fin de sentar las bases para futuros cambios a superar logrando de esta forma una aplicabilidad inteligente y más estrecha de las transacciones comunes haciendo uso de la tecnología de cara a una automatización. En las empresas publicas por ejemplo, requieren mejorar los tiempos en sus tramites administrativos, problemáticas relacionadas con el proceso administrativo para compra de algún producto/servicio a petición de áreas solicitantes de la organización que requieren este insumo ya sea físico (producto) o intangible (servicio) para desarrollar sus actividades. Se requiere identificar requerimientos, el tiempo promedio de la compra y pago del producto/servicio, además de que aun se usa la impresión de documentos, la recolección de una serie de firmas manuales de los solicitantes, seguir un flujo de secuencia que transita por varias áreas de la empresa, lo que trae como consecuencia perdida de la documentación, atrasos, errores y poca transparencia. Por otra parte, las áreas que intervienen en este proceso de compras y respuestas a las áreas solicitantes, no cuentan con la misma información financiera, es decir, no cuentan con alternativas en tiempo real para validar que los montos presupuestales asignados a cada partida del área solicitante sean correctos. Con lo anterior, el solicitante puede verse afectado aun con más tiempo de respuesta para obtener el bien o servicio requerido, complicando el cumplimiento de metas, productividad y desarrollo de nuevas estrategias que permitan mejorar la logística de todas las actividades de la empresa, traduciéndose en menos productividad y más tensión laboral y generación de información transparente. Finalmente en el área principal de administración de las empresas, suelen recibir o realizar auditorias de los presupuestos ejercidos, los que al estar clasificados en partidas presupuestarias con respectivas claves, llega a generar confusión, ya que desafortunadamente no se cuenta en ocasiones con tecnología que permita tener un mejor control de esta información, es decir, la transparencia no es clara y la posibilidad de alterar documentos es latente, si a esto se le agrega que en fechas de auditorias, se genera un ambiente de tensión al tener que integrar de manera manual e imprimiendo documentos que en ocasiones no aparecen o se deben de volver a
  • 268. 267 solicitar a el área que realizó la petición inicialmente, concluyendo en mas atrasos en los tiempos de servicios de la empresa. 2 Estado del arte La llegada de Blockchain puede aportar soluciones a las empresas de diferentes sectores como el financiero, pero también en otras áreas, como la contabilidad de las empresas, auditorias, aspectos jurídicos, los contratos inteligentes, la cadena de suministros y la industria de los seguros pero sobretodo en la transparencia, lo que ayuda a las empresas publicas y privadas en una mejor administración. Blockchain, usa mecanismos criptográficos para asegurar la imposibilidad de ser manipulable, lo anterior en base a la criptografía, la ciencia que trata de intercambiar información de forma segura, haciendo el mensaje ilegible, sin ocultar la existencia de dicho mensaje (Hernández Encinas, 2016). Desafortunadamente, la sociedad requiere que las empresas funcionen cumpliendo una serie de condiciones y entre ellas se encuentra la de poder ofrecer garantías a las organizaciones y personas, protegiendo su identidad e información relevante de cada uno de los actores que intervienen (Telefónica, 2016). Esta tecnología, se está utilizando por ejemplo para proporcionar una identidad digital no falsificable a inmigrantes o refugiados que han perdido o les ha sido sustraído su documentación o en casos con Internet de las cosas, permitiendo adquirir un producto, el pago sólo se realizaría automáticamente cuando el paquete sea entregado o fuese instalado y funcionase, ahorrando recursos. Lo mismo se está aplicando al alquiler de coches, donde el control del coche queda vinculado automáticamente al pago, lo que a la vez reduce la flexibilidad y personalización de esos contratos. La llegada de Blockchain puede aportar soluciones a las empresas de diferentes sectores como el financiero, pero también en otras áreas, como la contabilidad de las empresas publicas, auditorias, aspectos jurídicos, los contratos inteligentes, la cadena de suministros y la industria de los seguros. El estudio de Ayestarán Avendaño (2016) proporciona conclusiones respecto a la nueva era digital. Afirma que el cliente digital es más exigente y un atributo fundamental para dar un valor añadido es la transparencia y la privacidad. Señala que los usuarios desean tener bajo control sus datos personales. Pero este aumento de la conectividad, ha ocasionado también problemas de seguridad, como la captura de contraseñas de los usuarios, generando mayor incertidumbre, porque hay más riesgo de amenazas a estos dispositivos pero, sobre todo, la complicación de poder implementarlo en los diferentes niveles de las empresas (Márquez Solís, 2017). En la nueva era digital y con clientes digitales más exigentes, diferentes departamentos de empresas como el área contable, puede verse involucrada con la llegada de Blockchain, lo que podría generar ahora una contabilidad pública (Karp, 2015, p.2), por ello se ha hecho referencia a que los contables podrían examinar el funcionamiento interno de una empresa en todo momento y que las transacciones están haciéndose y como las registra la red (Tapscott & Tapscott, 2016). Nuevas formas de trabajo llevadas a cabo con el uso de Blockchain permitirán que los stakeholders se beneficien debido a que podrían seguir el buen o mal funcionamiento de la empresa, ya que una de las características de la tecnología Blockchain es su irreversibilidad de todas las transacciones y esto reduce problemáticas de manipulación y falseo de documentación y contabilidad de las empresas. Tapscott & Tapscott (2016), consideran que los nuevos métodos de contabilidad que usen registros distribuidos de Blockchain harán que la auditoria e información financiera sea transparente, en tiempo real, lo anterior es posible llevarlo a cabo al interior de una empresa, por lo que no solo el sector que más evolucionará con el Blockchain será la banca, hay otros usos de esta tecnología que se pueden aplicar a sectores mejorando en la gestión interna de las empresas logrando la transparencia, como lo es el caso de las empresas publicas. 3 Metodología Hipótesis. Un prototipo de Blockchain privado será un generador de innovacion en la transparencia y eficiencia en
  • 269. 268 instituciones. Objetivo General. Diseñar un prototipo de Blockchain privado que pueda ser usado como generador de innovacion en la transparencia y eficiencia en instituciones. La investigación que aquí se presenta, se considera como aplicada, toda vez que está centrada en encontrar mecanismos o estrategias que permitan lograr un objetivo concreto, como curar una enfermedad o conseguir un elemento o bien que pueda ser de utilidad. Por consiguiente, el tipo de ámbito al que se aplica es muy específico y bien delimitado, ya que no se trata de explicar una amplia variedad de situaciones, sino que más bien se intenta abordar un problema específico, en este caso el impacto del diseño y uso de un Blockchaiun como generador de innovacion en la transparencia y eficiencia en instituciones. La investigación es de corte cuantitativo, ya que de acuerdo con Sarduy (2007) este tipo de investigación permite recoger, procesar y analizar datos cuantitativos o numéricos sobre variables previamente determinadas. Así mismo, Sousa et al., (2007) menciona que la investigación cuantitativa involucra el análisis de los números para obtener una respuesta a la pregunta o hipótesis de la investigación. El diseño de investigación es cuasi experimental, transversal descriptivo, dado que los datos obtenidos se tendrán de un solo momento y, de acuerdo con Hernández, et al (2010), su propósito es describir variables y analizar su incidencia e interrelación en un momento dado. De acuerdo con Hernández, et ál., (2014) la recopilación de datos implica detallar un plan de acción para reunir los datos específicos que se requieran, así, en esta investigación se utilizó como instrumento el cuestionario para ser aplicado para empleados y usuarios del prototipo obteniendo datos del proceso de solicitud de compra de un producto/servicio. Se puede mencionar que el método para la recolección de datos de acuerdo con Chávez (s.f.) se define como el proceso de obtención de información empírica que permita la medición de las variables en las unidades de análisis, a fin de obtener los datos necesarios para el estudio del problema o aspecto de la realidad social motivo de investigación. De acuerdo con Cardona citado por Guzmán (2008) al mencionar que una buena muestra será aquella que representa en pleno a la población de la que fue extraída. Hay tres etapas significativas en el proceso de muestreo: • Identificación de la población y de la muestra. • Determinación del tamaño de la muestra. • Selección de la muestra. En este sentido, se utilizó un muestreo no probabilístico que, de acuerdo con Guzmán (2008), se caracteriza por su aplicación cuando no es posible o es innecesario una muestra probabilística, es decir no todos los sujetos tienen la misma oportunidad de ser seleccionados. Por tal motivo, se realizó un muestreo por conveniencia a 40 personas. La aplicación del instrumento se realizó mediante la herramienta de Google Forms y para tal efecto, se les proporcionó la liga a los encuestados y podían contestar el cuestionario registrándose con su cuenta de correo institucional mediante el acceso por única ocasión. En el citado cuestionario se recolectaron los datos de las variables a ser observadas y analizadas para poder encontrar en qué medida impacta el diseño y uso de un Blockchain como generador de innovacion en la transparencia y eficiencia en instituciones, la estructura consistió en preguntas abiertas y cerradas para poder obtener respuestas concretas y subjetivas. 4 Resultados experimentales Posteriormente, los datos de obtenidos del instrumento que se aplicó a la muestra de 40 encuestados sirvieron de sustento para el respectivo análisis, encontrando los siguientes hallazgos.
  • 270. 269 • El 97,3% de los encuestados, coinciden que es importante usar tecnología para lograr la transparencia en las organizaciones. Mientras el otro 2,7%, piensan que son dos cosas totalmente diferentes y no condicionan una a la otra. • El 91,9% mencionó que la transparencia en la rendición de cuentas con ayuda de Blockchain es funcional para que le permita a los interesados conocer y trabajar con recursos tecnológicos disponibles actualmente. El otro 8,1%, respondió que no confían plenamente en usar Blockchain. • El 81,1% aseguran que el usar tecnología forma parte de los cambios que se deben hacer, ya que permite un mejor servicio a los usuarios y adquirir conocimientos y habilidades a través de estas herramientas. En lo que el otro 18,9%, se refirió que usar tecnología es bueno pero también hay procesos que son complicados. • El 100% de la población encuestada, afirman que el contar con la información pertinente, oportuna y segura de no ser alterada, permite enriquecer de manera significativa la cultura de la transparencia. • La mayor parte (94,6%) coincidieron que los miembros de las organizaciones pueden llegar a ser mas eficientes si se les enseña de acuerdo con su área de trabajo el usar tecnología y como beneficia su trabajo. Mientras que el 5,4%, hacen mención que todos pueden aprender por los diferentes canales, aunque quizá algunos les resultan menos atractivo que otros el usar este tipo de tecnología. • El 86,5% están de acuerdo en aplicar un recurso tecnológico como Blockchain, ya que esto puede ayudar a las organizaciones a reducir problemáticas de manipulación y falseo de documentación y contabilidad de las empresas En lo que el otro 13,5%, no está conforme, ya que no se interactúa directamente con personas y no confían en la integridad que proporciona Blockchain. • El 73% de los encuestados concuerdan que la apertura al cambio y uso de las tecnologías juega un papel muy importante, pero no más que la disciplina y constancia, mientras el 27% cree que las políticas, áreas y competencias de desarrollo en las empresas heredadas no pueden ser cambiadas. • El 100% de los encuestados están de acuerdo que la sociedad puede funcionar para un buen aprendizaje en el uso de tecnologías como Blockchain en las organizaciones, lo que permite conocer mejor nuevas metodologías que ayuden al cliente digital para dar un valor añadido en la transparencia y la privacidad. Señala que los usuarios desean tener bajo control sus datos personales. • El 78,4% de los encuestados, son aquellos que han hecho uso una aplicación tecnológica y/o usaron Blockchain, mientras que el 21,6% desconoce estas herramientas y en cómo usarlas. 5 Conclusiones El prototipo del Blockchain se desarrolló en una opción privada interna (solo se puede ocupar por los usuarios internos de la empresa) con la intención de poder aprovechar esta tecnología y poder emitir un contrato inteligente, con lo que se permita agilizar el proceso administrativo para compra de algún producto/servicios a petición de áreas solicitantes de la empresa. Fue posible lograr el objetivo general planteado, diseñar un prototipo de Blockchain privado que pueda ser usado como generador de innovacion en sectores financieros y no financieros, en este caso el tiempo de quince días hábiles para realizar el proceso administrativo para compra de algún producto/servicio a petición de áreas solicitantes de la empresa, se redujo a tres días hábiles. Por otra parte fue posible contar con un libro de contabilidad digital que permite registrar transacciones digitales permitiendo el conocimiento del estado de las cuentas actualizado en tiempo real, la contabilización automática de gastos, es decir, puede lograr la automatización integral de todos los procesos que conforman la gestión de una empresa publica o privada, convirtiendo una herramienta de inteligencia de negocio a escala que facilite la toma de decisiones en tiempo real. La hipótesis de un prototipo de Blockchain genera innovacion en la transparencia y eficiencia en instituciones, permitió encontrar hallazgos de cómo esta herramienta contribuye a la mejora de la logística de actividades al interior de las empresas, por lo tanto, la reducción de costos para las empresas, mejoras en la prestación de servicios, aumento en la experiencia positiva del cliente o usuarios, transparencia, confianza y rapidez en las transacciones comerciales entre empresas y particulares es factible.
  • 271. 270 Referencias  Allison, I. (2015). Bank of England: Central banks looking at 'hybrid systems' using Bitcoin's  blockchain technology. International Business Time. July 16.  2.Arnold, M. (2016). Visa invita a las entidades a probar su nuevo sistema de pagos bancarios  basado en la tecnología del 'bitcoin'. Expansion (15/9/2016).  Goswami, D (2016). Unchaining Blockchain: The Ultimate Transparency Tool? Blog of  Government Innovators Network, Harvard Kennedy School, Ash Center for Democratic  Governance and Innovation. (8/6/2016).  Parker, L. (2015). Provenance to restore consumer trust with the blockchain. Brave New Coin  (5/12/2015).  Capps, M. (2016). ConsenSys Anticipates Moving Ujo Music Blockchain Rights Management  Offering to Beta. Bitcoin Magazine (8/11/2016).  Instituto Nacional de Estadistica, Geografia e Informatica (INEGI, 2019).  Bravo del Río, A. (28 de Junio de 2016). Universidad Central "Marta Abreu" de Las Villas. Obtenido de http://dspace.uclv.edu.cu:8089/handle/123456789/6706  Rojas Corimanya, J. F. (20 de Junio de 2014). Universitat de Barcelona. Obtenido de http://hdl.handle.net/2445/61585  Martínez Ramírez, E. A., & Montenegro-Marin, C. E. (12-14 de Noviembre de 2014). Semantic Scholar. Obtenido de https://pdfs.semanticscholar.org/9d20/208a4a16a5c8ca0628a9015aea8e0c419983.pdf  Oraá, D. R. (2017). Universidad De Valladolid. Obtenido de https://uvadoc.uva.es/handle/10324/7992  Hernández Encinas (2016). La criptografía, Editorial Consejo Superior de Investigaciones Científicas; Los libros de la Catarata.
  • 273. 272 Modelo basado en visión por computadora para detecciónde carriles viales para la autonomía de vehículos Juan Antonio Guerrero-Ibáñez 1 , Juan José Contreras-Castillo 1 y Pedro C. Santana- Mancilla 1 1 Facultad de Telemática – Universidad de Colima, Avenida Universidad 333, Colonia Las Víboras, Colima, Colima, 28040. México antonio_guerrero@ucol.mx, juancont@ucol.mx, psantana@ucol.mx Resumen. La industria automotriz se está centrando en desarrollar vehículos con un cierto nivel de autonomía hasta lograr el vehículo completamente autónomo. El objetivo global es generar un entorno de conducción más amigable y seguro tanto para los conductores, los pasajeros y los peatones. En este artículo presentamos un modelo basado en visión por computadora para detección de carriles que contribuya a proporcionar un cierto nivel de autonomía al vehículo. Los resultados obtenidos al aplicar el modelo mostraron una alta exactitud de detección de carriles, lo que permite contribuir al proceso de automatización del coche. Abstract. The automotive industry is focusing on developing vehicles with some autonomy level until achieving the fully autonomous vehicle. The global objective is to create a more friendly and safe driving environment for drivers, passengers, and pedestrians. This paper presents a computer vision-based model for lane detection that contributes to providing a certain level of autonomy for the vehicle. The results obtained when the model was applied a high accuracy in the lane detection process, allowing a contribution to the vehicle automation process. Keywords: coches, niveles de autonomía, visión por computadora, algoritmos, seguridad. 1. Introducción De acuerdo con la Organización Mundial de la Salud (OMS), a nivel mundial alrededor de 1.25 millones de personas mueren como consecuencia de accidentes de tránsito [1]. De acuerdo al Departamento de Transporte de los Estados Unidos, las estadísticas de accidentes muestran que el 93% de los accidentes de coches se deben a errores humanos [2]. Aunado a esto tenemos los problemas que enfrenta la sociedad moderna con respecto a niveles de contaminación y congestionamiento vial, pérdida de tiempo en las carreteras, por mencionar algunos. Por estas razones, en las últimas décadas los fabricantes de vehículos se han enfocado en proporcionar a los usuarios una experiencia de manejo más agradable, segura y
  • 274. 273 amigable con el ambiente. Los esfuerzos están dirigidos a generar paulatinamente coches con cierto nivel de autonomía hasta que se alcance la autonomía total del vehículo. La idea es generar vehículos con capacidad de moverse y transportar de una manera segura, sin que un humano lo conduzca. Con esto en mente, la Sociedad de Ingenieros Automotrices (SAE – Por sus siglas en inglés) [3] definió 5 niveles para determinar la autonomía de un coche de acuerdo al grado de involucramiento del conductor en el proceso de conducción (Figura 1). Fig. 1. Niveles de automatización de un vehículo definidos por el SAE. Uno de los puntos más relevantes para el éxito de la autonomía de los vehículos es la percepción. La percepción es la tarea de sensar el entorno de conducción, y consiste en un subconjunto de tareas tales como clasificación y detección de objetos, estimación de posición de los objetos, localización y mapeo simultáneo de objetos [4]. La percepción es un proceso crucial en la autonomía de los vehículos para una operación confiable y segura ya que todos los datos que se reciban del proceso de percepción son procesados por la computadora central y/o enviados a la nube y se utilizan para la toma de decisiones que defina el comportamiento del vehículo ante las situaciones detectadas (tráfico, cruce de peatones, señales de tráfico, etc). El presente artículo es parte de un proyecto de investigación denominado DeOAVe, una plataforma para detección de Objetos aplicado a la Autonomía de Vehículos. En específico, en este trabajo se presenta un algoritmo para la detección de carriles en avenidas y carreteras basado en visión computacional. 2. Estado del Arte La detección de carriles es un componente crítico en la autonomía de los coches y es uno de los tópicos de investigación más importantes para entender el escenario de conducción autónoma. Una vez que las posiciones de líneas de los carriles son obtenidas, el coche conocerá por donde desplazarse y evitar los riesgos de moverse a otros carriles o peor aún salirse de la carretera. Los métodos para detección de carriles se dividen en dos categorías: métodos basados en sensores y métodos basados en visión. Los primeros utilizan dispositivos como LiDAR, radar o sensores láser así como GPS [5-6]. Por otro lado, los métodos basados en visión utilizan sistemas de cámaras y son divididos en dos categorías: los métodos basados en modelos, los cuales crean un modelo matemático de la estructura de la
  • 275. 274 carretera usando coordenadas geométricas de la cámara y la carretera como datos de entrada [7]; mientras que los métodos basados en características pueden distinguir áreas con marcas basados en características de la carretera como por ejemplo el color, el gradiente o el ángulo [8]. El problema de la detección de carriles se ha definido como un problema de segmentación [9]. La segmentación consiste en dividir la imagen en regiones de interés llamadas segmentos. Por ejemplo se han propuesto soluciones basados en segmentación y un método para la generación automática de datos etiquetados [10]. Por otro lado, en [11] se propone el uso del método de segmentación para realizar la detección de carriles y posteriormente aplican una transformación de perspectiva aprendida para desempeñar una corrección de carril. En este trabajo se presenta un algoritmo de detección de carriles robusto y efectivo que utiliza el método basado en características. Primeramente se aplica una región de interés (ROI) a la imagen de entrada para eliminar la región que no pertenezca a la carretera. Posteriormente se aplica un mapeo inverso de perspectiva (IPM) para delimitar la región de visión. Como tercer paso se aplica el algoritmo de detección de segmentos de línea (LSD) para identificar todos los segmentos de línea de la imagen y se aplica un filtro para eliminar los segmentos de línea falsos de la imagen. Finalmente se aplica IPM para generar la imagen de salida. 3. Descripción de la propuesta El proceso de detección de carriles implica muchos retos a resolver, uno de ellos es evaluar los tipos de condiciones que se pueden encontrar durante el proceso de conducción (físicas de la carretera, ambientales, estado físico del conductor). Por ejemplo, las marcas de las carreteras o avenidas pueden variar enormemente. Las carreteras pueden ser marcadas por líneas sólidas bien definidas, líneas segmentadas, reflectores circulares, barreras físicas o en el peor de los casos con nada. Por otro lado, la superficie de la carretera o avenida puede estar compuesta de pavimento oscuro o claro o una combinación de ambos. Uno de los retos para detección exacta de líneas es controlar el ruido que aparece en la imagen de entrada, tales como sombras de objetos, marcas de frenados, entre otros. La presente propuesta se centra en la detección de carriles en tiempo real mediante el uso de cámara. Generalmente las líneas para representar los carriles son líneas blancas o amarillas que se pintan en el pavimento de la carretera. La pregunta a resolver es ¿cómo detectar las marcas de los carriles? Para poder detectar líneas se definió el proceso que se muestra en la figura 2 y se describe en las siguientes sub-secciones. 3.1 Captura de imagen Los datos que se utilizan de entrada son una secuencia de imágenes a color las cuales son capturadas desde la cámara del vehículo. La cámara se montó en el espejo retrovisoren la línea central. Toda la información que se captura se procesa por la computadora en tiempo real y se almacena en la memoria.
  • 276. 275 Fig. 2. Representación de los pasos de la propuesta de solución. 3.2 Conversión de imagen Debido a que el procesamiento de imágenes a color implica muchas dificultades para la detección de bordes y el tiempo de procesamiento, las imágenes se convierten a escala de grises. 3.3 Reducción de ruido El ruido es un problema para todos los sistemas. La presencia de ruido dificulta la detección correcta de los bordes, por lo que es indispensable aplicar algún mecanismo para remover el ruido. El objetivo es suavizar la imagen para facilitar la detección del mayor número de bordes. Para lograr esto se filtra cualquier ruido de la imagen que pudiera generar un borde falso a través de un filtro Gaussiano. Cada imagen se almacena como una colección de pixeles discretos a escala de grises los cuales se representan mediante un número que representa la brillantez del píxel. Para suavizarlo se modifica el valor del píxel con el valor promedio de la intensidad de los pixeles a su alrededor. El promedio se realiza mediante el kernel. El kernel se configuró a un tamaño de 5x5 y se aplica a todos los pixeles de la imagen. 3.4 Detección de bordes Para identificar el perímetro de las líneas se realiza un análisis de contraste de forma entre la superficie de la carretera y las líneas pintadas o la superficie no pavimentada. Con esto se reduce la cantidad de datos de aprendizaje requeridos y se simplifica la imagen considerablemente. Para llevar a cabo esta actividad se utilizó el método de Canny el cual es un algoritmo de múltiples etapas que permite detectar una amplia gama de bordes en imágenes. 3.5 Detección de área de interés Debido a que dentro del escenario de conducción existen diferentes objetos a parte de las líneas, lo que se hace es aplicar un mecanismo que permita ignorar los objetos no deseados del escenario de conducción. Para resolver este problema, se disminuye el área de interés con la que se desea trabajar. El objetivo de esta etapa es definir el área donde se localizan las líneas de los carriles, la cual se conoce como Región de Interés (ROI- por sus siglas en inglés). Primero, se define una gráfica donde se puedan representar las coordenadas para poder definir los puntos del área de interés (figura 3a). Posteriormente se definen las coordenadas para definir un polígono como la región de interés (figura 3b). Finalmente se aplica una máscara a la imagen para cambiar los valores de los pixeles de la región deseada. De esta manera se cambian todos los valores de la región deseada, colocando toda la imagen en negro y la ROI en blanco (Figura 3c).
  • 277. 276 (a) (b) (c) Fig. 3. Proceso de definición de área de interés, a) medición de imagen, b) definición de área, c) Definición de polígono. 3.6 Aplicación de máscara En esta parte del proceso se aplica la máscara a la imagen donde se obtuvieron los bordes y mediante operaciones AND con números binarios se obtiene la primera representación de líneas de guía de la imagen original. Al hacer operaciones AND, solamente cuando los dos valores de los píxeles son 1 se hará un uno. La figura 8 presenta el resultado de esta etapa. 3.7 Aplicación de Transformada de Hough Después de identificar los contornos en nuestra imagen y aislar la región de interés, se usó una técnica que detecta las líneas rectas en la imagen y de esta forma identificar las líneas guías en la carretera. La transformada de Hough es una técnica para la detección de figuras en imágenes digitales. Esta técnica es mayormente usada en el campo de Visión por Computadora. Con la transformada de Hough es posible encontrar todo tipo de figuras que puedan ser expresadas matemáticamente, tales como rectas, circunferencias o elipses. El caso más simple para la transformada de Hough es la transformación lineal para detectar líneas rectas. En el espacio de la imagen, la recta se puede representar con la ecuación y=m*x+n y se puede graficar para cada par (x,y) de la imagen. En la
  • 278. 277 transformada de Hough, la idea principal es considerar las características de una recta en término de sus parámetros (m,n) y no como puntos de la imagen (x1,y1), (xn,yn) Basándose en lo anterior, la recta y=m*x+n se puede representar como un punto (m,n) en el espacio de parámetros. Sin embargo, cuando se tienen rectas verticales, los parámetros de la recta (m,n) se indefinen. Por esta razón es mejor usar los parámetros que describen una recta en coordenadas polares, denotados (ρ, θ). El parámetro ρ representa la distancia entre el origen de coordenadas y el punto ( x,y), mientras que θ es el ángulo del vector director de la recta perpendicular a la recta original y que pasa por el origen de coordenadas. 3.8 Optimización Después de tener una detección de las líneas, aplicamos un proceso de optimización para que en lugar de tener múltiples líneas podamos generar una sola línea que trace la línea guía basado en el promedio de la pendiente de las líneas. Al aplicar este procedimiento se optimiza el dibujo de las líneas guía. Mediante este procedimiento, puede haber muchos puntos de intersección que representan líneas en XY. Lo que se hace es combinar todas esas líneas en dos líneas promedios maestras. Finalmente, cuando ya se tienen las dos líneas maestras, se dibujan en la imagen original de la carretera para tener un solapamiento suavizado. 4. Resultados Para la implementación del algoritmo se utilizó el lenguaje Phyton en conjunto con la librería de libre distribución OpenCV enfocada a la visión artificial. Para este proyecto, se utilizaron 5 diferentes videos de alrededor de 4 minutos donde se mostraba la visión de la cámara durante el proceso de conducción. Se aplicó el algoritmo y se visualizó la identificación de las líneas del carril de la carretera. La figura 4(a), muestra todas las imágenes que dan por resultado la detección de líneas del carril. Para medir la precisión del algoritmo se realizó un comparativo de los datos reales de localización del objeto deseado con los resultados de predicción del algoritmo propuesto. Se uso la métrica de intersección sobre una unión para medir la exactitud de localización. Para esta métrica (Miu) la cual se calcula mediante una división del área de intersección entre el área de unión. De esta forma, se calcula el área de solapamiento entre la figura delimitadora real y la figura delimitadora obtenida por el algoritmo dividido entre la figura de unión de las dos regiones [12]. De acuerdo al método propuesto en [12], si el valor es mayor a 0.5 se considera un positivo verdadero. Finalmente, en la figura 5 se puede observar el resultado del proceso de la métrica Miu, en la cual se observa que los valores estuvieron oscilando entre 0.78 y 0.98, con un tasas promedio entre 0.86 y 0.94. La tasa promedio de todos los cáculos fue de 0.91, lo que nos proporciona un alto grado de precisión, de acuerdo al método utilizado.
  • 279. 278 (a) (b) Fig. 4. a) diferentes resultados de las fases del proceso propuesto, b) resultado de la aplicación del algoritmo Fig. 5. Resultado de la métrica de medición de exactitud y localización. 5. Conclusiones y trabajo futuro Con respecto al proyecto, mediante este algoritmo propuesto pudimos realizar el primer esfuerzo para detectar carriles. Pudimos comprobar que el algoritmo fue muy preciso, ya que probamos con diferentes videos y en todos se detectó correctamente las líneas que representan la división de carriles.
  • 280. 279 Como trabajo futuro se está trabajando en aplicar este proceso para la detección de señales de tráfico y peatones para después implementarlo en un simulador que integre todas las funciones y comience a tomar decisiones en el proceso de conducción. References [1] Organización Mundial de la Salud (OMS), Informe sobre la situación mundial de la seguridadvial 2015, 2015, disponible en: https://www.who.int/violence_injury_prevention/road_safety_status/2015/Summary_GS RRS 2015_SPA.pdf [2] U.S. Department of Transportation, Technical Report: Vehicle Automation and Weather: Challenges and Opportunities, 2016. [3] SAE, Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems, SAE On-Road Automated Vehicle Standards Committee, Hong Kong, China, Technical Report J3016_201401, 2014. [4] A. Gupta, A. Anpalagan, L. Guan, A. Shaharyar Khwaja, Deep learning for object detection and scene perception in self-driving cars: Survey, challenges, and open issues, Array, Volume 10, 2021. [5] M. Yousef, A. Hosny, W. Gamil, M. Adel, H. M. Fahmy, S. M. Darweesh, and H. Mostafa, Dual-Mode Forward Collision Avoidance Algorithm Based on Vehicle-to- Vehicle (V2V) Communication, in IEEE International Midwest Symposium on Circuits and Systems (MWSCAS 2018), Windsor, Ontario, Canada, pp. 739-742, 2018. [6] H. Fahmy, G. Baumann, M. AbdelGhany, and H. Mostafa, “V2V-Based Vehicle Risk Assessment and Control for Lane-Keeping and Collision Avoidance”, in IEEE International Conference on Microelectronics (ICM 2017), Beirut, Lebanon, pp. 61-65, 2017. [7] Dajun Ding, Chanho Lee, Kwang Lee, “An Adaptive Road ROI Determination Algorithm for Lane Detection,” in Proceedings of the TENCON 2013–2013 IEEE Region 10 Conference; pp. 22–25, 2013. [8] Pallavi V. Ingale and Prof. K. S. Bhagat, “Comparative Study of Lane Detection Techniques,” in International Journal on Recent and Innovation Trends in Computing and Communication,vol. 4, no. 5, 2016. [9] J. Kim and C. Park, End-to-end ego lane estimation based on sequential transfer learning for self-driving cars, in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, 2017, pp. 30–38. [10] K. Behrendt and J. Witt, “Deep learning lane marker segmentation from automatically generated labels,” in 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2017, pp. 777–782. [11] D. Neven, B. De Brabandere, S. Georgoulis, M. Proesmans, and L. Van Gool, “Towards end- to-end lanedetection: an instance segmen- tation approach,” in 2018 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2018, pp. 286–291. [12] Simhambhatla, Ramesh; Okiah, Kevin; Kuchkula, Shravan; and Slater, Robert (2019) "Self-Driving Cars: Evaluation of Deep Learning Techniques for Object Detection in Different Driving Conditions," SMU Data Science Review: Vol. 2 : No. 1 , Article 23.
  • 281. 280 Diseño de órtesis paramétrica para corredores de pista en silla de ruedas Israel Garduño-Bonilla1 , Ana Lilia Laureano-Cruces2 , Juan Carlos Pérez-Alva1 1 Facultad de Estudios Superiores Aragón-UNAM 2 Departamento de Sistemas UAM-A RESUMEN La órtesis está definida como un dispositivo aplicado a nivel externo que se usa para modificar características estructurales y funcionales del sistema esquelético neuromuscular. El objetivo de la investigación consiste en diseñar una órtesis para corredores de pista en silla de ruedas, con los beneficios del diseño paramétrico para ser fabricada por medio de Manufactura Aditiva (FDM, Fused Deposition Modeling). Para la investigación fue considerada la antropometría de las manos de deportistas paralímpicos y fueron fabricados moldes de silicón para realizar vaciados en resina epóxica, los cuales fueron escaneados en 3D para generar modelos virtuales de la órtesis, para posteriormente ser parametrizados. La Manufactura Aditiva fue seleccionada por ser un proceso de fabricación rápida de prototipos, además de tener la capacidad de variar la anisotropía en la deposición y con ello la resistencia del material. Generada la órtesis se procederá a evaluar mecánicamente los prototipos físicos obtenidos de la manufactura aditiva y se harán las respectivas modificaciones. Palabras clave: Órtesis para mano; manufactura aditiva; diseño paramétrico; sillas de ruedas deportivas. 1. INTRODUCCIÓN La pérdida o daño de algún miembro del cuerpo es una situación que ha sufrido el ser humano desde la prehistoria; algunas de las primeras evidencias fueron encontradas en las cavernas de España y Francia que datan de hace 36000 años A.C., en las cuales se pueden observar impresiones de figuras humanas con amputaciones en miembros superiores [1]. Con la finalidad de apoyar la funcionalidad o pérdida de alguno de los miembros superiores e inferiores, como manos, brazos, pies y piernas, la tecnología en el campo de la medicina ha desarrollado elementos conocidos como prótesis y órtesis. La palabra Prótesis viene de la raíz griega pros, que significa sustituir, colocar o añadir, y la palabra Órtesis tiene su significado etimológico en la raíz ortho, que es poner recto o enderezar.
  • 282. 281 Por su parte la Sociedad Internacional de Órtesis y Prótesis, define a la órtesis como un dispositivo aplicado a nivel externo que se usa para modificar características estructurales y funcionales del sistema esquelético neuromuscular [2]. Actualmente algunos corredores de pista en silla de ruedas utilizan órtesis para generar el impulso de avance en la silla. En este deporte la fuerza del deportista es esencial, la cual es transmitida a la silla de ruedas por medio de la fuerza de los brazos y manos, que empujan los aros de avance para que se realice el desplazamiento. Es importante señalar que la órtesis en este caso no tiene una función correctiva o médica, el uso es debido a que por medio de la órtesis se golpea el aro de avance y ello genera un esfuerzo dinámico de mayor intensidad que un empuje, lo cual produce el incremento del desplazamiento en menor tiempo. En cuanto al diseño paramétrico, este es definido como un método matemático [3] asociado al Diseño Asistido por Computadora (CAD) que tiene la capacidad de modificar las geometrías del modelo virtual a partir de parámetros definidos, de tal manera que las dimensiones son modificadas dependiendo de los parámetros asignados al modelo [4]. Considerando los aspectos de la órtesis para los deportistas y las características del diseño paramétrico, la investigación tiene como objetivo diseñar una órtesis para corredores de pista en silla de ruedas, que pueda ajustarse a las dimensiones de mano mediante el diseño paramétrico. Para la fabricación de la órtesis y sus prototipos será utilizada la Manufactura Aditiva (FDM, Fused Deposition Modeling). La elección de este proceso es por los siguientes criterios: 1) es un sistema de prototipado rápido, 2) puede ser realizado mediante una impresora 3D, 3) existe la posibilidad de utilizar diferentes materiales en la fabricación y 4) es posible realizar modificaciones en la anisotropía de la deposición del material, para mejorar las propiedades mecánicas de la órtesis. 2. METODOLOGÍA Para el desarrollo del proyecto fue empleada la metodología de la investigación tecnológica, la cual es un proceso complejo que integra la lógica de la invención, el diseño y la innovación, con la finalidad de modificar la realidad mediante la investigación y la transformación [5] . Teniendo en consideración esta metodología, la investigación tuvo las siguientes etapas: 1) Análisis de la carrera de silla de ruedas, para determinar las características 2) Análisis biomecánico del impulso proporcionado por el deportista a la silla de ruedas. 3) Estudio de los productos análogos en el mercado que son utilizados para el impulso de la silla.
  • 283. 282 4) Análisis de materiales empleados en la fabricación tanto de productos análogos como de órtesis. 5) Realizar mediciones de las manos de los deportistas y de la forma que la mano se adapta al aro de la silla para generar el impulso de avance. 6) Fabricar modelos en resina considerando las medidas de los deportistas y los productos análogos. 7) Digitalizar los modelos de resina para obtener el modelo virtual. 8) Parametrizar el modelo virtual para que pueda aceptar los datos antropométricos de la mano y se ajuste automáticamente en dimensiones. 9) Producir el prototipo parametrizado mediante FDM, considerando las opciones de deposición del material para generar la anisotropía más adecuada. 10) Verificar las dimensiones del prototipo físico parametrizado y comparar con las medidas reales de la mano deportista, para detectar posibles discrepancias y congruencias en cuanto a medidas y volúmenes. A partir de estas etapas se obtiene el prototipo físico, que posteriormente en investigaciones consecuentes será evaluado en cuanto a resistencia mecánica y en condiciones de uso. 3. DEPORTE ADAPTADO EN SILLA DE RUEDAS. La silla de ruedas es un dispositivo que utiliza una persona con incapacidad para movilizarse utilizando sus piernas; algunas personas utilizan este objeto como medio para desplazarse de manera cotidiana e incluso las sillas de ruedas son empleadas para realizar actividades deportivas. Cada disciplina deportiva en la que se utiliza una silla de ruedas tiene características muy particulares, por un lado, debe cumplir tanto con los requerimientos del usuario en relación con su discapacidad y por otro, con los requerimientos técnicos del tipo de deporte que se practica, e inclusive se debe acoplar a ciertas normativas y reglamentos deportivos. En el caso de las sillas de ruedas para carrera de pista (Figura 1), actualmente están conformadas por una estructura ligera, que puede ser de fibra de carbono o aluminio, con dos ruedas traseras y una rueda delantera. La rueda delantera suele tener alrededor de 20 pulgadas de diámetro, y las ruedas traseras varían de 25 a 27 pulgadas de diámetro [6].
  • 284. 283 Figura 1. Silla de ruedas para carrera de pista. Imagen utilizada con autorización de la Fábrica de Silla de Ruedas Industrias Lince S.A. de C.V. Estas sillas se fabrican a medida ya que la antropometría varía mucho entre cada deportista y esto afecta también la posición en la que corre el usuario. La posición es importante ya que la inclinación en la estructura y las medidas del asiento proporcionan soporte y ajuste para que el deportista desarrolle la mayor fuerza posible y se transmita a las ruedas para incrementar la velocidad. Para la transmisión de la fuerza del deportista a la silla de pista, se realiza por medio de estructuras circulares unidas las ruedas traseras, las cuales se conocen coloquialmente como aros de avance (Figura 2). Aros de avance Figura 2. Aros de avance en la silla de ruedas para carrera de pista. Imagen utilizada con autorización de la Fábrica de Silla de Ruedas Industrias Lince S.A. de C.V. Los aros son elementos importantes ya que es el contacto de fuerza y empuje de los brazos y manos de deportista con la silla. Actualmente, para proteger las manos y proporcionar mejor sujeción del aro, son utilizados guantes que están fabricados con piel; en el dorso de la mano y el pulgar tiene cubiertas poliméricas de textura rugosa para protección y agarre (Figura 3).
  • 285. 284 Figura 3. Guantes utilizados para la carrera de pista en silla de ruedas. Estos guantes separan los dedos de la mano en tres partes, de tal forma que se juntan los dedos índice- medio y anular-meñique, quedando el pulgar solo. Por medio de una banda con velcro unido a los dedos índice-anular que se ajusta a la muñeca formado una especie de muñón (Figura 4) esto permite, tanto una mejor adaptación al aro de avance, como mayor sujeción al momento del impulso. Figura 4. Ajuste del guante de los dedos hacia la muñeca por medio de una cinta velcro para mejor sujeción y protección.
  • 286. 285 Estos guantes son comercializados como guantes suaves para personas que se inician en la disciplina deportiva; existen también otros tipos de guantes que han sido llamados coloquialmente “guantes duros”. Sin embargo, no se ajustan a la definición de guantes ya que no cubren la mano como los observados en las figuras anteriores; estos son sujetados con la mano para realizar el empuje del aro de avance. Debido a la forma, resistencia y uso, estos aditamentos se adaptan más a la definición de órtesis que fue mencionada en el inicio del documento. Este tipo de órtesis generalmente es fabricado de manera artesanal y para ello se utiliza un polímero termo-formable (Figura 5), que puede moldearse a las dimensiones la mano de cualquier deportista (Figura 6). y que posteriormente se endurece para resistir los esfuerzos. Figura 5. Órtesis fabricadas de manera artesanal con polímero termo-formable. Estas órtesis artesanales son recubiertas con un material similar al neopreno, con el objetivo de tener una superficie de contacto rugosa, que permita un mayor coeficiente de fricción entre la superficie del aro de avance y la órtesis, pero también como protección tanto, para los impactos que se generan al momento de impulsar el aro, como a talladuras o rozamiento con la mano.
  • 287. 286 Figura 6. La órtesis es moldeada con base en las dimensiones de la mano del deportista y es recubierta con un material similar al neopreno para sujeción y protección. 4. ANTROPOMETRÍA DE LA MANO Y RÉPLICA DE LA ÓRTESIS ARTESANAL. Para el diseño de esta órtesis deportiva es importante considerar las dimensiones de la mano del deportista, ya que esta será un producto personalizado a través de diseño paramétrico. Teniendo la personalización como elemento importante, se procedió a tomar las medidas del ancho de la mano, el largo de los dedos índice-medio, el grosor de estos dos dedos y el largo del dedo pulgar (Figuras 7 y 8). Figura 7. Toma de medida del grosor de los dedos índice y medio del deportista.
  • 288. 287 Figura 8. Toma de medida del ancho de la palma de la mano del deportista. Figura 9. Medida del largo del pulgar del deportista. Además de estas medidas antropométricas, también fue analizada la órtesis artesanal y se compararon ambas dimensiones. Este aspecto fue relevante también en la investigación ya que la posición que adopta la mano es un tanto complicada. Esto se debe a que la órtesis debe contemplar un espacio entre el dedo pulgar y los dedos índice-medio, para que pueda acoplarse con el grosor del aro de avance de la silla de ruedas, Además también debe dar soporte y protección a la zona del pulgar para que se realice el empuje que desplazará al deportista. Cabe mencionar que esta órtesis utilizada por el deportista es un objeto muy funcional y al ser altamente personalizado le ayuda a tener un mejor desempeño en los entrenamientos y en las competencias. Considerando este aspecto de funcionalidad y adaptabilidad, se procedió a fabricar una réplica de esta órtesis mediante la elaboración de un molde de silicón; este proceso fue seleccionado ya que es ideal para fabricar piezas con buen detalle [7], y con la capacidad de obtener piezas de formas complejas (Figura 10).
  • 289. 288 Figura 10. Elaboración de molde de silicón para realizar una réplica de la órtesis artesanal. Posteriormente a través de un vaciado de resina polimérica en el molde de silicón, fue obtenido un modelo sólido que fue trabajado para eliminar imperfecciones como sobrantes de material y poros ocasionados por burbujas de aire en la resina (Figura 11). Figura 11. Modelo de resina que necesitó de trabajo posterior para corregir algunos huecos y retirar sobrante de material. En esta etapa de la investigación era necesario e importante obtener un modelo casi idéntico de la órtesis fabricada por los deportistas y además que se obtuviera con una calidad adecuada para continuar con el proceso de digitalización. Después de un proceso de empastado, lijado, pulido y pintado, el modelo final resultó con una apariencia aceptable para el posterior proceso (Figura 12).
  • 290. 289 Figura 12. Modelo final fabricado en resina con moldes de silicón, obtenido como réplica de las órtesis fabricadas por los deportistas. Mediante el empleo de moldes de silicón se obtuvo una réplica con buenos detalles y se mantuvieron las dimensiones con muy pocas variaciones, las cuales estuvieron entre el rango de 0.5 a 1 mm, lo cual resulta adecuado para este tipo de piezas con una forma orgánica compleja. 5. MODELO DIGITAL DE LA ÓRTESIS Una vez obtenido el modelo de la órtesis con una calidad aceptable y con las dimensiones de la órtesis original, la siguiente fase consiste en generar un modelo virtual-tridimensional que pueda modificarse con algún software de diseño paramétrico. Para generar el modelo virtual (Figura 13) fue necesario utilizar un escáner 3D, debido a la complejidad formal de la órtesis, de hecho, fue necesario realizar correcciones en el modelo para cerrar algunos espacios o huecos en el mallado de la pieza, ya que el escáner no tenía puntos de referencia en algunas cavidades profundas.
  • 291. 290 Figura 13. Modelo virtual obtenido de la digitalización del modelo sólido, por medio de un escáner 3D. Este modelo también fue analizado en el software Simplify 3D (Figura 14), el cual es una herramienta excelente para verificar los resultados de la impresión 3D y posibles errores al generar las rutas de deposición del material al momento de realizar la impresión [8]. Además, este software también proporcionó información para corroborar las dimensiones, de tal manera que hubiera correspondencia con el modelo virtual por imprimir y las medidas reales de la órtesis. Figura 14. Modelo virtual cargado en el software Simplify 3D, para verificar errores en la deposición del material y escalas en correspondencia con la órtesis original. 6. PARAMETRIZACIÓN DEL MODELO VIRTUAL. Una vez obtenido el modelo digital será necesario analizarlo y determinar los parámetros necesarios para que le modelo pueda ser modificado dependiendo de las medidas de las manos de los deportistas. Debido a la forma compleja de la órtesis y al requerimiento de ajuste dimensional en relación con las medidas de las manos, serán empleadas geometrías básicas que son denominadas en los modelos digitales, como formas primitivas, las cuales son cuerpos geométricos virtuales con formas básicas como cubos, cilindros, prismas rectangulares y conos, que permitirán introducir parámetros básicos para modificar las dimensiones del modelo virtual y así ajustarse a las medidas de la mano del deportista. Posteriormente, se buscará que el modelo tenga una forma orgánica y ergonómica que puedan acoplarse a la mano; para ello se utilizarán programas que trabajen con superficies B-Splines Racionales No Uniformes (NURBS, Non-Uniform Rational B-Splines), las cuales son estándares para los sistemas de Diseño Asistido por Computadora (CAD) y de Manufactura Asistida por Computadora (CAM) [9].
  • 292. 291 CONCLUSIONES El diseño de una órtesis paramétrica involucra el desarrollo de una alta personalización ya que tanto las dimensiones y requerimientos de los usuarios son muy diversos y exigentes. Para el caso de este proyecto la órtesis será utilizada en el ámbito deportivo y esto conlleva también una adecuada selección del proceso de fabricación y de los materiales a utilizar, ya que la órtesis deberá soportar cargas dinámicas y además absorber impactos con el aro de avance de la silla de ruedas. En cuanto al desarrollo digital, hasta este parte de la investigación se logró obtener un modelo físico idéntico a las órtesis fabricadas por los deportistas, las cuales ya han sido probadas en competencias y no causan molestias o lesiones. El modelo físico fue digitalizado por medio de un escáner 3D, con la intención de obtener un modelo virtual que se pudiera modificar y analizar para determinar las formas de parametrizarlo. La parametrización será la siguiente etapa de la investigación, para ello se considera que el utilizar geometrías primitivas de los modelados en 3D podría sería una opción viable, ya que para modificar estas formas geométricas se introducen valores numéricos que producen cambios en las dimensiones del modelo virtual. Considerando tanto las geometrías primitivas en conjunto con superficies NURBS en el diseño paramétrico se pretende llegar forma óptima de la órtesis, la cual una vez obtenido el prototipo final será fabricado por medio de manufactura aditiva. Las ventajas de este proceso de deposición de material resultan adecuadas ya que por un lado es un proceso de prototipo rápido y por otro, en la manufactura aditiva es posible controlar la direccionalidad en la que se deposita el material; lo cual resulta importante ya que la resistencia mecánica se puede incrementar si se selecciona correctamente la orientación o anisotropía. Actualmente la tecnología de la manufactura aditiva está desarrollándose de manera acelerada; las innovaciones en nuevos materiales y en extrusores que pueden hacer la deposición de varios tipos de filamento en la misma pieza de impresión, proporciona un excelente panorama para la fabricación de productos altamente personalizados. Finalmente se hace hincapié en que este proyecto tiene un enfoque social al considerar a los deportistas con diferentes capacidades. AGRADECIMIENTOS Fábrica de Silla de Ruedas Industrias Lince S.A. de C.V. por todas las facilidades y apoyo otorgado para desarrollar productos centrados en el usuario. REFERENCIAS [1] F. Montane and J. Muñoz, “EL DESARROLLO DE LA PROTÉSICA A LO LARGO DE LA HISTORIA HUMANA.,” International Society Prostnetics and Orthotics, pp. 9–12, Aug. 2018. [Online]. Available: https://www.researchgate.net/publication/ 344321505
  • 293. 292 [2] J. Redford, J. Basmajian, and Trautman P., Orthotics: Clinical Practice and Rehabilitation Technology. New York: Churchill Livingstone, 1995. [3] M. Fraile, “EL NUEVO PARADIGMA CONTEMPORÁNEO. DEL DISEÑO PARAMÉTRICO A LA MORFOGÉNESIS DIGITAL,” Teoría de la arquitectura en la contemporaneidad, pp. 2–11, 2014. [4] A. Lekuona, M. Domínguez, and M. Espinosa, “El diseño paramétrico como herramienta creativa en diseño de producto,” Técnica Industrial, pp. 32–40, Jul. 2021. doi: 10.23800/10507. [5] F. García, La investigación tecnológica, PRIMERA. México: Limusa Noriega Editores, 2005. [6] R. A. Cooper and A. J. de Luigi, “Adaptive sports technology and biomechanics: Wheelchairs,” PM and R, vol. 6, no. 8 SUPPL., 2014, doi: 10.1016/j.pmrj.2014.05.020. [7] B. Hallgrimsson, Prototyping and modelmaking for product design. Laurence King Pub, 2012. [8] Institute of Electrical and Electronics Engineers. Karachi Section and Institute of Electrical and Electronics Engineers, 2019 Second International Conference on Latest trends in Electrical Engineering and Computing Technologies (INTELLECT). [9] Mateus S., “NURBS Fitting to a Regularized Quadrilateral Mesh,” Revista Avances en Sistemas e Informática, Bogotá Colombia, pp. 117–124, Dec. 06, 2007. Accessed: Mar. 25, 2022. [Online]. Available: http://www.redalyc.org/articulo.oa?id=133115019 004.
  • 294. 293 Semblanza de los Editores Alma Rosa García Gaona es directora general del Consejo Nacional de Acreditación en Informática y Computación, A.C. (CONAIC). Cuenta con la licenciatura en Estadística (1982) de la Universidad Veracruzana, Maestría en Ciencias de la Computación (1996) de la Universidad Nacional Autónoma de México, Grado de Doctor en Educación Internacional con especialidad en Tecnología Educativa (2004) de la Universidad Autónoma de Tamaulipas. Obtuvo el Premio al Decano 2012, máxima distinción que otorga la Universidad Veracruzana. Ha publicado diversos capítulos de libros, artículos en revistas y congresos de reconocido prestigio, en las áreas de ingeniería de software, bases de datos y educación. Francisco Javier Álvarez Rodríguez es profesor asociado de Ing. de Software de la Universidad Autónoma de Aguascalientes. Tiene una licenciatura en Informática (1994), una maestría (1997) de la Universidad Autónoma de Aguascalientes, un grado EdD del Instituto de Educación de Tamaulipas, México y es Ph(c) de la Universidad Nacional Autónoma de México. Ha publicado artículos de investigación en varias conferencias internacionales en los temas de e-Learning e Ing. de Software. Sus intereses de investigación son la Ing. de Software para el ciclo de vida de las pequeñas y medianas empresas y el proceso de Ing. de Software para e-Learning. La M. en C. Ma. de Lourdes Sánchez Guerrero es profesor investigador Titular “C” en la Universidad Autónoma Metropolitana con estudios de Lic. en Computación en la UAM-Iztapalapa y Maestría en Ciencias de la Computación en la UAM-Azcapotzalco. Es la Presidenta de la Asociación Nacional de Instituciones de Educación en Tecnologías de la Información A.C. (ANIEI). Es miembro de los comités: Comité de Acreditación del Consejo Nacional de Acreditación de Informática y Computación (CONAIC). Representante de México en el Centro Latinoamericano de Estudios en Informática CLEI.
  • 295. 294 View publication stats AGRADECIMIENTOS Lic. Carlos Umaña Trujillo, Director General, Alfa Omega Grupo Editor S.A. de C.V. IMPRESIÓN: ALFA OMEGA GRUPO EDITOR S.A. DE C.V. DERECHOS RESERVADOS: Asociación Nacional de Instituciones de Educación en Tecnologías de la Información A.C. 294 páginas, Transformación Digital: Avances y paradigmas tecnológicos ISBN: 978-607-538-797-0