SlideShare una empresa de Scribd logo
Un modelo de evaluación de entornos virtuales de enseñanza y aprendizaje
basado en la usabilidad.
Ariel Ferreira Szpiniak
Departamento de Computación. Facultad de Ciencias Exactas, Físico-Químicas y Naturales.
Universidad Nacional de Río Cuarto, Río Cuarto, Córdoba, Argentina.
aferreira@exa.unrc.edu.ar
Cecilia V. Sanz
III LIDI, Facultad de Informática. Universidad Nacional de La Plata, La Plata, Buenos Aires,
Argentina.
csanz@lidi.info.unlp.edu.ar
Resumen
En este trabajo presentamos los avances en la
generación de un modelo de evaluación de
Entornos Virtuales de Enseñanza y de
Aprendizaje (EVEA) basado en la usabilidad.
El modelo propuesto forma parte de un trabajo
de tesis correspondiente a la Maestría de
Tecnología Informática Aplicada en
Educación, de la Facultad de Informática de la
UNLP.
Se presentan aquí los lineamientos generales
de las cuatro capas propuestas para el modelo,
los métodos de evaluación de usabilidad
seleccionados para cada una de ellas, y los
evaluadores requeridos. Por último se detallan
los componentes de la primera capa y las
posibles formas de evaluarlos.
Si bien el modelo de evaluación está en
construcción, se tiene la intención de aplicarlo
para un EVEA en particular, en un contexto
institucional específico.
Palabras claves: EVEA, usabilidad,
evaluación.
Introducción
Los entornos virtuales de enseñanza y
aprendizaje son aplicaciones informáticas
diseñadas con el propósito de facilitar la
comunicación pedagógica entre los
participantes en un proceso educativo. Este
proceso puede asumir modalidades diferentes:
a distancia, presencial, o de naturaleza mixta
(blended). Se caracterizan por utilizar redes,
principalmente Internet, como soporte para
permitir la comunicación entre los
participantes del proceso, fundamentalmente
docentes y alumnos. La Web es el servicio
fundamental que posibilita a estos sistemas
interactuar con los usuarios del mismo. En tal
sentido, el diseño de los EVEA se rige por las
normas básicas del diseño Web y las propias
del dominio de aplicación, es decir, la
educación.
Deben ser lo suficientemente versátiles como
para no condicionar la propuesta pedagógica y
permitir un amplio abanico de posibilidades en
cuanto a los modelos susceptibles de ser
utilizados, desde un modelo centrado en el
docente hasta un modelo centrado en el
alumno [Sig01]. Es decir, lo importante es que
el diseño tecnológico acompañe al modelo
pedagógico, sin perder de vista que la
herramienta tecnológica solamente, aunque sea
la mejor, no garantiza el cumplimiento de los
procesos educativos [Fai99]. Para conseguir
estos objetivos, proveen herramientas que se
ocupan de la gestión de usuarios, cursos, y
herramientas de comunicación, evaluación,
colaboración, distribución de contenidos, etc.
Ahora bien, estos entornos presentan una serie
de funcionalidades, a través de sus
herramientas, para lograr que parte del proceso
de enseñanza y aprendizaje pueda
desenvolverse de manera mediada de la mejor
manera. Pero, ¿cómo podemos saber si ese
objetivo se logra? Para averiguarlo es
necesario realizar una evaluación.
La evaluación puede orientarse de diferentes
maneras según lo que se pretenda evaluar. En
general, la mayoría de los modelos de
evaluación existentes analizan los EVEA
desde el punto de vista funcional. Sin
embargo, el análisis de las funcionalidades
ideales no tiene en cuenta la forma en que se
TE&ET'09 382
puede poner en práctica todo su potencial. En
la actualidad la mayoría de estos sistemas
poseen un núcleo común de herramientas, con
lo cual carece de sentido seguir analizándolos
casi exclusivamente desde el punto de vista de
sus características funcionales. Por tal motivo
creemos necesario incorporar una forma de
evaluar donde no se pierdan de vista estas
características pero se prioricen otros aspectos
centrados en el modo en que los usuarios
finales toman contacto con la funcionalidad
[Mon06]. En este sentido, la usabilidad es un
concepto muy útil ya que puede considerarse
como parte importante de la aceptabilidad
práctica de un software junto con la utilidad
funcional y otras variables (accesibilidad,
costos, compatibilidad con otros sistemas,
confiabilidad, soporte, etc.) [Nie93][Zur99].
La utilidad funcional se refiere a si el sistema
hace lo que es necesario que haga, es decir, si
responde a las metas por las que el sistema fue
creado. La usabilidad busca analizar cuán
bueno es un sistema como para satisfacer todas
las necesidades y requerimientos de los
usuarios [Fer07].
Evaluación de la usabilidad
Las evaluaciones de usabilidad son factibles de
utilizar en diferentes tipos de sistemas y
distintas fases del proceso de desarrollo de
software. Muchos de los métodos o técnicas
existentes pueden aplicarse en más de una
fase, sin embargo, la mayoría está destinada a
capturar problemas de usabilidad en etapas
tempranas de desarrollo. El objetivo es reducir
el tiempo y el costo de producción.
El tema se ha tornado tan importante que
existe una rama específica de la ingeniería de
software que se dedica exclusivamente a atacar
este problema y que se la conoce con el
nombre de Ingeniería de la Usabilidad. Esta
mirada de la usabilidad se corresponde con el
estándar ISO/IEC 9126-1 [ISO01] que define a
la misma desde un punto de vista orientado al
proceso, como una de las características de
calidad interna y externa del software, junto
con la funcionalidad, fiabilidad, eficiencia,
mantenibilidad y portabilidad. El término es
utilizado para referirse a la facilidad de uso,
entendida como la capacidad para permitirle al
usuario saber si la aplicación es adecuada para
sus tareas y condiciones de uso particulares, si
le posibilita aprender a utilizarla, operarla y
controlarla, siendo al mismo tiempo atractiva,
y sin que por ello deje de respetar los
estándares, guías y convenciones
internacionales.
Otra forma de analizar la usabilidad es aquella
que se ocupa de evaluarla como un atributo del
producto final, en lugar de tomarlo en cuenta
durante el desarrollo. El estándar ISO 9241
[ISO98] es el más representativo en este
sentido y en cual se apoyan numerosos autores
para fundamentar sus métodos de evaluación.
La definición de usabilidad dada por este
estándar posibilita que evaluadores,
consultores, instituciones o empresas, que no
necesariamente estén involucrados en el
desarrollo del mismo, puedan medir su
usabilidad. En este sentido se define a la
usabilidad en términos de la efectividad,
eficiencia y satisfacción con la que un sistema
permite alcanzar los objetivos propuestos por
los usuarios en un contexto de uso
determinado. La eficiencia, entendida como
los recursos empleados en relación con la
precisión y plenitud con que los usuarios
alcanzan sus objetivos propuestos, forma parte
de la usabilidad, a diferencia del estándar ISO
9126-1 [ISO01] que la considera como otra
característica del mismo nivel. La definición
incluye también la efectividad del mismo, es
decir, la precisión y plenitud con que los
usuarios alcanzan los objetivos. Sin embargo,
un sistema eficiente y efectivo puede no
satisfacer al usuario si mediante su uso se
siente incómodo y, producto de ello, adopta
una actitud negativa hacia el mismo. Debido a
esto, la satisfacción del usuario es otro de los
puntos centrales a considerar en la evaluación.
Posiblemente el hecho de centrarse en el
contexto de uso sea uno de los rasgos más
fuertes de esta mirada ya que pone el acento en
la utilización concreta que el usuario hace del
sistema, analizando en ese contexto las
características del mismo. El contexto de uso
involucra a los tipos de usuarios, las tareas, el
equipamiento y el entorno físico y social
TE&ET'09 383
dentro del cual será utilizado el sistema. Para
poder evaluarlo es necesario contar con
usuarios reales, situaciones reales de trabajo y
condiciones específicas. Por lo tanto el
producto deberá estar concluido o en una etapa
avanzada de desarrollo. El usuario y el entorno
en el cual se utilizará el sistema pasan a ser
ejes centrales para evaluar su usabilidad.
En nuestro trabajo nos interesa evaluar los
EVEA existentes en la actualidad desde el
punto de vista de la usabilidad de los mismos.
Si bien es permanente la evolución de estos
sistemas y se producen nuevas versiones en
cortos períodos de tiempo, la propuesta de
evaluación que realizaremos será sobre
entornos en pleno funcionamiento. La razón
principal es que las diferentes etapas de
análisis se apoyan en escenarios reales de uso,
teniendo especial consideración por los
alumnos y docentes, los objetivos que se
proponen, las tareas específicas que realizan
dentro del entorno durante las actividades de
enseñanza y aprendizaje, el modelo mental que
utilizan, el equipamiento e infraestructura del
que disponen, el lugar físico donde
habitualmente se desenvuelven y el entorno
social en el cual están insertos.
Esta forma de encarar la evaluación nos
posiciona en una mirada centrada en productos
finales, versiones de prueba, o en evoluciones,
donde no es necesario formar parte del equipo
de desarrollo para realizar la evaluación sino
que alcanza con tener acceso a una versión
operable del mismo.
Puntos de partida propuestos
Como hemos mencionado, la participación del
usuario en el proceso de evaluación es
fundamental para la obtención del grado de
usabilidad de un software [Fer01]. Esto
posibilita que puedan involucrarse personas
ajenas a los equipos de desarrollo, tanto para
evaluar productos en construcción, como así
también productos terminados o nuevas
versiones. Por lo tanto, es necesario que las
herramientas de evaluación sean participativas
y cuenten con la posibilidad cierta de
incorporar a los usuarios finales en el proceso.
Esto no implica que sean los únicos actores
involucrados, sino que tal vez sea necesaria la
intervención de observadores o personas
expertas en el dominio o herramientas de
automatización [Gon01]. Para lograr que el
modelo sea efectivamente utilizado, los
procesos de evaluación e interpretación de
resultados deben poder hacerse de la forma
más rápida y menos costosa posible.
La usabilidad de un software es una
característica que no puede determinarse
evaluando el producto de manera aislada.
Tampoco es posible medirla de una sola forma
ya que depende del tipo de producto, el
conjunto de usuarios y el contexto de uso. Es
una medida relativa, y por lo tanto difícilmente
existan reglas de usabilidad absolutas y
aplicables por igual en todas las situaciones
[Mor05].
Los modelos de evaluación existentes analizan
los EVEA poniendo el foco sobre las
funcionalidades que ofrecen. Sin embargo, la
validación no ha de centrarse únicamente en el
acceso a las herramientas concretas sino al
ensayo con alumnos reales [Sal06]. El análisis
de las funcionalidades ideales tampoco tiene
demasiado en cuenta la usabilidad. Por
ejemplo, se puede contar con una herramienta
comunicación entre docentes y alumnos, con
una gran cantidad de funcionalidades pero
demasiado engorrosa de utilizar, entender o
aprender por parte de usuarios no expertos.
Estos modelos fueron pensados cuando las
características diferían bastante entre un
entorno y otro. En la actualidad, los entornos
de mayor importancia poseen un núcleo
común de herramientas. Donde todavía resta
camino por recorrer es en cuestiones ligadas a
la usabilidad, posiblemente porque son más
difíciles de medir, como por ejemplo la
flexibilidad para adecuar cada entorno, y sus
herramientas, a distintos contextos o modelos
de enseñanza y de aprendizaje. En el mejor de
los casos, la usabilidad está restringida a la
facilidad de uso y el cumplimiento de ciertos
estándares.
Las definiciones y heurísticas de usabilidad
presentan una idea sobre las consideraciones
que hay que tener a los efectos de alcanzar
buenos niveles de usabilidad en los sitios Web.
TE&ET'09 384
Se busca entonces un modelo de evaluación de
EVEA que integre ambas cuestiones. Es
necesario contar con un modelo de evaluación
específico. Un modelo centrado en la
usabilidad debería nutrirse de los ya existentes,
debido a que la evaluación de la funcionalidad
es parte importante, pero debe tener en cuenta
a docentes y alumnos trabajando en el entorno
con la funcionalidad disponible.
Otro aspecto de gran relevancia para alcanzar
altos niveles de usabilidad es la accesibilidad.
Para que un entorno sea usable, entre otras
cosas, debe ser accesible. Dicho de otra
manera, la accesibilidad es condición necesaria
para la usabilidad. La accesibilidad tiene en
cuenta factores humanos como así aspectos
ligados al hardware y al software. Así, adultos
mayores o personas sin motricidad fina
tendrán serios inconvenientes en utilizar
productos basados exclusivamente en el uso
del mouse. Otros usuarios, sin éstas
características pero con computadoras que no
son de última generación, viejas versiones de
navegadores, sin plugins, o conexiones lentas,
estarán impedidos de utilizar el entorno si está
realizado, por ejemplo, exclusivamente con
tecnología multimedia.
El método de evaluación de usabilidad que
proponemos está orientado a una evaluación
de producto, es decir, sobre entornos virtuales
que ya han sido desarrollados y están en pleno
funcionamiento. También puede facilitar la
evaluación de nuevas versiones de un mismo
sistema o la comparación entre ellas. Las ideas
generales o puntos de partida para la búsqueda
de este nuevo modelo que proponemos se
basan en una estrategia de cuatro niveles o
capas de evaluación que parten de lo general
para llegar a lo particular, es decir, una
estrategia top-down. A continuación
presentaremos sintéticamente la idea de cada
una de ellas.
Primera capa
Destinada a analizar gran parte de la
aceptabilidad práctica del EVEA. La
aceptabilidad práctica conjuga la utilidad
(usefullness) con otras variables como costos,
compatibilidad, confiabilidad, y soporte, entre
los más importantes [Nie93][Zur99]. La
utilidad a su vez está determinada por la
utilidad práctica o funcional (utility), la
usabilidad y la accesibilidad. En esta primera
capa abordaremos el análisis de todos los
componentes de la aceptabilidad práctica,
menos el referido específicamente a
usabilidad. Esto no significa que la evaluación
de usabilidad esté ausente por completo en
esta capa, sino que de acuerdo a la
clasificación propuesta por Nielsen [Nie93] las
variables que se analizarán son: utilidad
práctica y accesibilidad (parte de la utilidad),
junto con las características técnicas generales
(antecedentes, potencial, tecnología utilizada,
licencia, soporte, seguridad, acceso de
usuarios), compatibilidad (servidor,
usuario/cliente, formatos multimedia,
integración) y robustez (integridad de
funcionamiento, recuperación ante fallos,
seguridad).
Segunda capa
Orientada a evaluar la forma en que el sistema
interactúa con el usuario, la interfaz que
presenta y el modo en que permite a los
usuarios realizar las tareas básicas. Los
métodos de inspección, como el recorrido
cognitivo y la evaluación heurística resultan
adecuados para este tipo de acciones
[Lew93][Pol92][Wha94][Alv05][Con05][Nie9
0b][Nie92][Mac93][Man03b][Cat00]. En el
recorrido cognitivo el especialista transita un
escenario de tareas determinado como lo haría
un usuario tipo. Es decir, combina el recorrido
del software con un modelo cognitivo de
aprendizaje por exploración. La evaluación
heurística es una variante de la inspección
formal donde los especialistas analizan que
cada elemento de la interfaz de usuario siga las
heurísticas de usabilidad establecidas. Para
ello recorren meticulosamente las tareas con
los propósitos y objetivos de los usuarios en
mente, poniendo énfasis en el hallazgo de
errores. Los dos métodos realizan recorridos
desde el punto de vista del usuario, pero los
paseos cognitivos ponen el énfasis en la teoría
cognitiva, mientras la evaluación heurística lo
hace más en las heurísticas y el hallazgo de
TE&ET'09 385
errores. Estos dos métodos de inspección
pueden ser conjugados en uno solo para
simplificar la evaluación.
Tercera capa
Una vez superadas las dos capas anteriores
comienza a ser imprescindible la participación
del usuario. En esta etapa se plantea incorporar
la opinión de los usuarios finales bajo un
ambiente controlado por un evaluador. Para
esto son de gran ayuda los métodos de test de
usuario, en particular los del tipo de expresión
del usuario en base a preguntas, que en
realidad son una variante del test de
pensamiento en voz alta [Woo98]. Los
usuarios participan de la evaluación realizando
una o más tareas que formen parte de un
escenario tipo. Es importante que los usuarios
involucrados en los test abarquen los
diferentes roles en que puede interactuarse con
el EVEA (alumnos, docentes, administradores,
etc.). Por otro lado, dentro de cada rol deben
seleccionarse usuarios con diferente nivel de
experiencia en el uso del servicio Web. A
medida que el usuario interactúa con el
entorno debe expresar en voz alta sus
pensamientos, sensaciones y opiniones,
mientras el evaluador capta y registra las
impresiones y sensaciones que el usuario
manifiesta oralmente, además de realizar
preguntas directas cuando lo considera
conveniente. De acuerdo a la experticia y al rol
que deba desempañar el usuario puede resultar
necesario que el test incluya una capacitación
previa sobre las características del sistema o
los aspectos a ser evaluados.
Cuarta capa
Está destinada exclusivamente a que los
futuros usuarios finales aporten su punto de
vista dentro de un contexto o ambiente real.
Lógicamente, para realizar este tipo de
evaluación también son adecuados los test de
usuarios. En particular los test remotos son
muy eficaces, rápidos y fáciles de realizar
[Hom03] [Mon06]. Además el usuario realiza
el test en su propio medio o ambiente, con lo
cual es posible evaluar el contexto de uso. Los
test remotos se basan principalmente en el uso
de cuestionarios para recolectar la
información. El evaluador sólo está encargado
de elaborar, suministrar el cuestionario y
posteriormente procesar los resultados.
Relaciones
Las capas plantean ciertos grados de
contención del usuario, siendo el primer nivel
el de mayor contención. La transición de un
nivel a otro estaría dada por resultados
aceptables en las evaluaciones. Es decir que,
en el caso de productos en desarrollo, la
usabilidad debería mejorar de un nivel a otro,
ya que se supone que los errores y dificultades
más importantes han sido detectados y
corregidos en las etapas previas. Sin embargo,
como mencionamos anteriormente, el modelo
que se propone resulta más adecuado para
evaluar productos terminados o para comparar
nuevas versiones de un entorno respecto de las
anteriores.
Como hemos visto, la primera capa es la
encargada de realizar una evaluación del
entorno en general, mientras que las restantes
se sitúan en un contexto de uso particular, por
ejemplo un curso dentro de un EVEA
particular.
Evaluadores
Los diferentes métodos de evaluación de
usabilidad de aplicaciones Web requieren,
entre otras cosas, de distinto tipo de
evaluadores [Car02]. Por ejemplo, para la
evaluación heurística es necesario gente
experimentada en el diseño de interfaces e
interacción humano-computadora, mientras
que para realizar un recorrido cognitivo será
de mayor utilidad contar profesionales
relacionados con el dominio de la aplicación.
En todo modelo los evaluadores cumplen un
rol fundamental. El juicio emitido por ellos
puede llevar a descartar el uso de un
determinado producto o a desencadenar un
profundo proceso de cambios en la aplicación.
Determinar adecuadamente el tipo de
evaluadores a seleccionar, y los conocimientos
que deben poseer, es de vital importancia para
la adecuada aplicación de los métodos de
evaluación. Una vez superada esta instancia, la
TE&ET'09 386
obtención de datos fiables está sujeta a varios
factores:
 la adecuada selección de los
evaluadores para posibilitar que las
personas elegidas estén lo más
próximas posible al perfil buscado, es
decir, al evaluador “ideal”.
 la cantidad de personas involucradas en
la evaluación.
 el tiempo que dispondrán para realizar
la evaluación.
 el compromiso que asumirán con la
tarea.
 los recursos materiales y económicos
que se pondrán en juego.
Por otra parte, de nada sirve contar con un
excelente modelo de evaluación, y una
apropiada determinación del perfil de los
evaluadores, si a la hora de poner en práctica
la evaluación no se utilizan con seriedad los
instrumentos y se emiten juicios sesgados o
poco objetivos.
La diversidad de aspectos a analizar en un sitio
Web, y en particular de un EVEA, hace
imposible que un solo tipo de evaluador
realice la tarea de forma confiable y completa.
En virtud de ello es necesario contar con
evaluadores dedicados al análisis del diseño de
interfases, la utilización de estándares, otros
abocados a los aspectos educativos generales,
y finalmente aquellos que serán los
beneficiarios directos del producto. Por tal
motivo, de acuerdo al tipo de método de
evaluación a utilizar es necesario clasificar a
los usuarios en función de las tareas que
llevará a cabo.
Clasificaciones
Existen diferentes propuestas sobre la forma
de clasificación de los evaluadores. En general
esta clasificación depende del tipo de sitios
Web (objeto a evaluar) y del momento en que
se desarrolle la evaluación, es decir, si se trata
de un producto en alguna etapa de desarrollo o
sobre una versión final. También es importante
tener en cuenta los instrumentos y métodos
que se utilizaran para recoger la información.
Desde una mirada centrada en la usabilidad de
los sitios Web, que puede ser aplicada también
a los EVEA, existe un acuerdo entre los
principales referentes del área para dividir a
los evaluadores en dos tipos: expertos y
usuarios [Car02]. Complementaremos al
evaluador usuario con características
adicionales como el rol que juega dentro del
EVEA (docente o alumno), el perfil y el
contexto de uso. Además, contaremos con
observadores que colaboran en la aplicación
del método de evaluación. Los observadores
son imprescindibles ya que son los encargados
(para varias de las técnicas de evaluación a
implementar) de realizar la recolección de los
datos, el registro y análisis de los mismos.
Expertos
Los expertos intervendrán en las dos primeras
capas del modelo de evaluación propuesto de
EVEA. Tendrán la particularidad de poseer
muy buenos conocimientos acerca de la
característica de usabilidad que se esté
evaluando en cada una de las capas.
La primera de ellas evalúa las características
funcionales del producto, lo más “grueso”, de
allí que los expertos que participarán de la
evaluación serán de dos tipos: especialistas en
educación y especialistas en tecnología.
En la segunda capa se realiza una evaluación
desde el punto de vista de la interfaz en
combinación con los objetivos del usuario. El
análisis de las heurísticas no se realiza de
forma aislada sino aplicadas a lo que el usuario
desea realizar con el sistema informático. Los
productos educativos como los EVEA poseen
características especiales que permiten llevar
adelante procesos de enseñanza y de
aprendizaje. De allí que al menos se distingan
dos tipos de usuarios: docentes y alumnos. En
este caso, los expertos asumen un doble rol,
docentes y alumnos, en el contexto de
realización de una serie de tareas generales
dentro del entorno. Lo más importante es que
el evaluador conozca el dominio de aplicación.
Podría pensarse en contar con un solo tipo
experto que desempeñe los roles de docente y
alumno o varios tipos de acuerdo a la
disponibilidad de recursos humanos,
financieros y temporales. Una característica en
TE&ET'09 387
común es que el experto posea experiencia
docente.
Usuarios
Los usuarios intervendrán en las dos últimas
capas del modelo. Al igual que en el caso de
los expertos existen diferentes roles de
usuarios. Estos roles dependen de la propuesta
educativa. Por ejemplo, los más recurrentes
son: alumno, docente, tutor, colaborador,
responsable, veedor, monitor, administrador y
webmaster. Para esta propuesta utilizaremos
dos roles básicos: uno que sintetice las labores
de enseñanza que se pueden realizar en el
entorno y otro que haga lo propio con las de un
alumno. Las tareas a realizar dentro del
entorno pueden diferir de acuerdo a la
propuesta metodológica de cada una de las
actividades educativas que se implementen
bajo este soporte tecnológico. Por ejemplo,
una propuesta centrada en el docente no
utilizará los mismos recursos y herramientas
que otra centrada en el alumno, así como
tampoco será igual la forma de utilizar cada
medio. A los efectos de sortear estos
inconvenientes y poder realizar una evaluación
lo más general posible, tomaremos como base
una serie de escenarios y tareas comunes que
puedan encontrarse en la mayoría de las
propuestas virtuales. Designaremos a estos
roles de la misma forma que lo hicimos para
los expertos, es decir, docentes y alumnos, de
acuerdo a la tarea que se pretenda evaluar. La
diferencia principal entre los expertos y los
usuarios radica en que los primeros realizan
una simulación del rol docente y alumno,
mientras que los usuarios son docentes y
alumnos reales.
Para la última capa, donde se realiza una
evaluación utilizando usuarios finales pero en
su medio habitual de trabajo y estudio, será
considerada una nueva dimensión que permita
poner de manifiesto el contexto de uso en el
cual se utiliza el sistema. Los principales
parámetros a considerar serán: ubicación
geográfica, recursos técnicos disponibles
(software, hardware, conectividad), edad, sexo
y posibles limitaciones físicas.
Desarrollo del Modelo
A continuación desarrollaremos las
características generales de la primera capa de
evaluación. Las capas restantes se encuentran
en proceso de construcción.
Primera capa
Tanto el desarrollo como la selección de un
EVEA implica la toma de decisiones de tipo
técnico y de carácter educativo [DeB00a]
[DeB00b]. Si bien las cuestiones técnicas no
son condición suficiente para garantizar la
calidad del proceso de enseñanza-aprendizaje,
está claro que sí son una condición necesaria,
puesto que las mismas deben favorecer, y no
obstaculizar, el modelo educativo y las
decisiones metodológicas que se deseen
implementar.
En esta primera capa, la más general del
modelo de evaluación, nos centramos en el
análisis de las características funcionales de
los EVEA, donde se consideran cuestiones
técnicas así como las relacionadas con las
facilidades para la organización académica y
flexibilidad pedagógica. En este nivel no
analizaremos la forma ni la calidad con que se
pueden llevar a cabo los procesos educativos,
sino que más bien intentamos determinar cuál
es la riqueza que poseen desde el punto de
vista de sus herramientas y posibilidades.
Tampoco se abordarán cuestiones relacionadas
con la gestión de contenidos por entender que
los EVEA no están directamente focalizados
hacia la edición de materiales on-line o
creación de objetos de aprendizaje, sino a la
planificación, desarrollo y evaluación del
proceso de enseñanza y aprendizaje.
Es por ello que a este nivel toma especial
relevancia la versatilidad del entorno para
adaptarse al desarrollo de distintos escenarios
formativos (cursos, grupos de cursos, carreras,
comunidades virtuales, etc.) porque la decisión
de hacer uso de un EVEA, en general, está
condicionada por el tipo de institución
académica que se trate, sus modos de
funcionamiento, estructura y organización.
También es importante evaluar la forma en
que puede dar soporte a diferentes
modalidades educativas, sean éstas
TE&ET'09 388
presenciales, a distancia o mixtas, y a
diferentes enfoques de enseñanza y
aprendizaje. Para analizar éstas características
de manera integral es necesario contar con un
grupo plural de especialistas provenientes de
diferentes disciplinas. En especial son
necesarios expertos en tecnologías de la
información y la comunicación, para abordar
los aspectos puramente tecnológicos, y
expertos en educación que centren su mirada
sobre los aspectos pedagógicos y didácticos.
Este tipo de evaluación ha sido muy común y
recurrente, fundamentalmente a partir del año
2000, cuando comenzaron a proliferar un gran
número de herramientas orientadas a favorecer
el desarrollo de propuestas educativas on-line.
Del análisis de cada uno de ellos se advierte
que [Fer07]:
 No existe acuerdo respecto a la
clasificación o criterios a tener en
cuenta para evaluar los EVEA.
 Sí existen criterios y clasificaciones
comunes en muchos de los modelos.
Nuestra primer capa de evaluación podrá el
énfasis sobre las coincidencias entre los
modelos más importantes a efectos de
construir un instrumento de evaluación
general, centrado en los componentes
tecnológicos de los EVEA pero sin perder de
vista el componente pedagógico, ya que ambos
son determinantes para la selección de un
entorno adecuado [DeB05].
Se trata de un análisis descriptivo que puede
efectuase a través de la documentación
proporcionada por el producto,
complementada con pruebas de instalación y
puesta de funcionamiento de los cursos o aulas
virtuales de demostración.
Qué evaluar
Para ello realizaremos un abordaje general
cuyo objetivo es analizar la flexibilidad del
entorno desde el punto de vista tecnológico,
organizativo, y pedagógico/didáctico,
incluyendo además el nivel de estandarización.
Flexibilidad tecnológica
Entendemos por flexibilidad tecnológica a las
fortalezas y debilidades que posee el EVEA
desde el punto de vista de sus características
técnicas generales, compatibilidad con
hardware y software, y robustez. Las
características técnicas son uno de los aspectos
clave que debemos tener en cuenta a la hora de
seleccionar las herramientas que vamos a
utilizar. Estas características deben adaptarse a
las necesidades y posibilidades de cada
organización o institución que decide utilizar
un entorno de aprendizaje basado en redes
[DeB05].
La flexibilidad tecnológica analiza en primer
lugar las características técnicas principales
del entorno en relación a sus antecedentes,
potencial, tecnología en la cual está basado,
requerimientos de software y de hardware,
licencias, servicio y soporte técnico, seguridad,
modo de acceso. Luego aborda
compatibilidad, y por último la robustez.
Flexibilidad organizativa
La flexibilidad organizativa pone el acento en
cuestiones administrativas y de interfaz. La
administración es un punto crítico para tener
éxito en la implantación del sistema. Este tipo
de flexibilidad es muy importante porque
puede reducir drásticamente los tiempos
destinados a la administración, hacer más
eficiente la puesta en funcionamiento de cada
una de las instancias virtuales de formación,
solucionar rápidamente problemas durante el
desarrollo de las mismas, adaptar las interfaz a
las necesidades institucionales, y posibilitar
que, al menos, parte de las tareas
administrativas puedan ser llevadas a cabo por
usuarios que dispongan de mínimos
conocimientos técnicos, de programación o
administración de base de datos. Se
consideran aquí las posibilidades para
configurar perfiles de usuarios, altas, bajas,
búsqueda, asignación y acceso de los mismos a
sus respectivos cursos, o aulas virtuales.
También se analizan las capacidades del
entorno para gestionar, copiar y replicar
espacios virtuales, obtener información sobre
ellos, asignarle usuarios con perfiles y
privilegios de acceso. Por último se tiene en
consideración aspectos relacionados con la
interfaz general del software, las posibilidades
TE&ET'09 389
de personalización, ayudas, y modos de
visualización.
Flexibilidad pedagógico/didáctica
En esta categoría hacemos referencia a las
funcionalidades que el entorno provee a
docentes y alumnos para el desarrollo del
proceso de enseñanza y aprendizaje. Está
centrada en el contexto particular de un aula
virtual, es decir, un espacio virtual específico
para el desarrollo de una instancia educativa.
Se trata de una de los aspectos más
importantes porque está orientada al análisis
del corazón del entorno, es decir, la riqueza
que brinda para adaptarse a las diferentes
propuestas pedagógicas y modalidades
didácticas. Para un mejor detalle se han
considerado diferentes tipos de herramientas:
información, comunicación, colaboración,
evaluación y específicas para el alumno. Las
herramientas de información son las que
ayudan a organizar las cuestiones
metodológicas de un curso. En este sentido se
consideran importante poseer herramientas
para la explicitar la agenda de un curso,
novedades ocurridas durante el transcurso del
mismo, alertas o anuncios personalizados,
pizarrón virtual, glosario de términos,
información general e índice de contenidos.
Las herramientas de comunicación
interpersonal son uno de los pilares
fundamentales dentro de los EVEA, ya que
posibilitan el intercambio de información, el
diálogo y discusión entre todas las personas
implicadas en el proceso, contemplando
diferentes tipos de comunicación: uno a uno,
uno a muchos, muchos o muchos [Har90]. En
particular, a las herramientas de comunicación
las clasificamos de acuerdo a la necesidad
temporal de participación de los usuarios, es
decir, asincrónicas o sincrónicas. También
contemplamos las herramientas que posibilitan
la colaboración e interacción entre docentes y
alumnos y entre los propios alumnos, y que
facilitan a su vez el trabajo colaborativo a
través de diferentes aplicaciones que permiten
compartir información, trabajar con
documentos conjuntos, etc. [DeB06]. En lo
que respecta a las herramientas para
evaluación contemplamos las que posibilitan
la generación de ejercicios de evaluación,
auto-evaluación, y encuestas on-line, aquellas
que permiten la realización y entrega de
actividades off-line o deberes, las relacionadas
con la calificación y puntuación de los
alumnos, las que facilitan la personalización
del aprendizaje, las que se refieren a la
monitorización y seguimiento de la actividad
de los alumnos, y aquellas para el acceso a
informes referentes a las calificaciones,
ejercicios y actividades realizadas. Las de
apoyo al alumno involucran herramientas
específicas para facilitar el proceso de
aprendizaje como la posibilidad de
manipulación personal de los materiales,
facilidad para obtener información sobre su
progreso, la creación de un sitio Web personal
o facilidades para almacenar sus trabajos y
materiales en un espacio virtual propio.
Estandarización
Cualquier producto que pretenda ser de calidad
debe posee altos niveles de estandarización.
Los productos software no son la excepción, y
menos aún aquellos que se basan
exclusivamente en la Web. El proceso de
estandarización de la Web ha convergido hacia
aquellos que fueron propuestos por la World
Wide Web Consortium (W3C). En particular
son de interés para nuestro trabajo los
estándares de la W3C orientados a la validez,
accesibilidad e internacionalización del
entorno. La validez tiene está relacionada con
el lenguaje que permite la generación de
contenidos para la Web (XHTML) y las hojas
de estilo (CSS). La accesibilidad (WCAG) con
el acceso a la Web por el mayor abanico
posible de usuarios, independientemente de
sus discapacidades. La internacionalización
con el uso de pautas y códigos de índole
general que puedan ser entendidos sin
problemas por usuarios provenientes de otras
culturas, idiomas, edades, etc.
Cómo evaluar
La forma en que evaluaremos éstas
características será mediante la aplicación de
diferentes métodos y técnicas. En el caso de la
TE&ET'09 390
flexibilidad tecnológica no tenemos un
método de evaluación de usabilidad que se
ajuste adecuadamente. Ello se debe al tipo de
características que deben analizarse:
antecedentes, potencial, tecnología, licencia,
seguridad, acceso, compatibilidad, y robustez.
La evaluación de dichas características puede
realizarse mediante un cuestionario,
completado a partir de la documentación
disponible. Tanto la flexibilidad organizativa
como la flexibilidad pedagógico/didáctica
requieren al evaluador situarse en el rol de
hipotético usuario para analizar si están dadas
ciertas funcionalidades dentro del EVEA. Por
tal motivo, el método de inspección de
características resulta pertinente para la
evaluación de flexibilidad organizativa y
pedagógico/didáctica. Este método puede
aplicarse mediante la técnica de cuestionario
de tipo mixto. Por último nos encontramos con
la estandarización, donde es imprescindible
contar con documentación técnica y verificar
una por una las interfaces del EVEA mediante
la ayuda de alguna herramienta específica. El
método de inspección de estándares se
presenta como muy adecuado para realizar este
proceso debido a que se trata de un método
que chequea la interfaz y evalúa si cumple con
los estándares que rigen en la Web. Las
herramientas de verificación de estándares
Web y de accesibilidad que funcionan on-line
pueden ayudar en este proceso.
Conclusiones y trabajos futuros
En este artículo se ha realizado una
presentación de los lineamientos generales de
un modelo de evaluación de entornos virtuales
de enseñanza y aprendizaje basado en cuatro
capas, a partir de una evaluación de producto.
Luego se ha presentado el concepto de
evaluador, una clasificación posible, y la
forma en que los evaluadores intervendrán en
la evaluación.
Por último hemos abordado la primera capa
del modelo, detallando qué se debería evaluar
y una idea de cómo hacerlo.
Este modelo continúa en desarrollo y será
aplicado a un caso específico de estudio, que
dará a lugar a una retroalimentación por parte
de los involucrados en la evaluación para
perfeccionar el modelo.
Bibliografía
[Alv05] Alva Obeso, M. E. Metodología de
Medición y Evaluación de la Usabilidad en
Sitios Web Educativos. 2005.
[Car02] Carvalho, A. Usability testing of
educational software methods, techniques and
evaluators. 3º Simposio Internacional de
Informática Educativa. Portugal. 2002.
[Cat00] Catalán Vega, M. Metodologías de
evaluación de interfaces gráficas de usuario.
http://eprints.rclis.org/archive/00004718.
2000.
[DeB00a] De Benito, B. Posibilidades
educativas de las webtools, Palma de
Mallorca, Universidad de las Islas Baleares.
2000.
[DeB00b] De Benito, B. Herramientas web por
entorno de enseñanza-aprendizaje, en
CABERO, J. y otros (coods): Medios
audiovisuales y nuevas tecnologías para la
formación en el siglo XXI, Murcia. 2000.
[DeB05] De Benito, B; Salinas, J. Situaciones
didácticas en los entornos virtuales de
enseñanza-aprendizaje (EVEA) en la
enseñanza superior: elaboración de un
instrumento de análisis. Congreso
Internacional EDUTEC, 2005.
[DeB06]. De Benito, B; Salinas, J. Situaciones
didácticas en los entornos virtuales de
enseñanza-aprendizaje (EVEA) en la
enseñanza superior: elaboración de un
instrumento de análisis. Congreso EDUTEC.
2006.
[Fai99] Fainholc, B. La interactividad en la
educación a distancia. 1ª ed. Buenos Aires.
Editorial Paidós. 1999.
[Fer07] Ferreira Szpiniak, A; Sanz, C. Hacia
un modelo de evaluación de entornos virtuales
de enseñanza y aprendizaje. La importancia de
la usabilidad. Anales del XIII CACIC.
Corrientes y Resistencia. Argentina. 2007.
[Gon01] González Rodríguez, J; Olsina, L.
Hacia la Medición de Calidad en Uso Web..
http://www.dlsi.ua.es/webe01/articulos/s222.p
df. 2001.
TE&ET'09 391
[Har90] Harasim, L. Online Education: An
Environment for Collaboration and Intellectual
Amplification. En Harasim, L. (Ed.): On line
Education. Perspectives on a New
Environment. Preaguer Pub., New York. 1990.
[Hom03] Hom, J. The Usability Methods
Toolbox.
http://www.best.com/~jthom/usability/usable.h
tm. 2003.
[ISO01] Software Engineering – Product
Quality – Part 1: Quality Model. ISO/IEC
9126-1. 2001.
[ISO98] Ergonomic requirements for office
work with visual display terminals. Dialogue
principles. ISO 9241-10. 1998.
[Lew93] Lewis, C.; Rieman, J.: Task-centrered
user interface design QA Practical
introduction. 1993.
[Mac93] Mack, R.; Nielsen, J. Usability
inspection methods. ACM SIGCHI Bulletin-
June, 28-33. 1993.
[Man03b] Manchón, E. Evaluación heurística
(o por expertos) de la usabilidad.
http://www.alzado.org/articulo.php?id_art=74.
2003.
[Mon06] Usabilidad: ¿Qué?¿Cómo?¿Cuándo?
¿Dónde? ¿Para qué? Francisco Montero.
Universidad de Castilla-La Mancha. España.
2006.
[Mar05] Marcos, M; Rovira, C. Evaluación de
la usabilidad en sistemas de información web
municipales: metodología de análisis y
desarrollo. En: Gascon, J., Burguillod F. y
Pons A. (ed.). La dimensión humana de la
organización del conocimiento. Universitat de
Barcelona, Barcelona, España. 2005.
[Nie90b] Nielsen, J; Molich, R. Heuristic
evaluation of user interfaces. Proceedings of
the CHI’90, ACM Press, pp 249-256. 1990.
[Nie92] Nielsen, J. Finding usability problems
through heuristic evaluation. Proceedings of
the CHI’92, ACM Press, pp 373-380. 1992.
[Nie93] Nielsen, J. Iterative User-Interface
Design. IEEE Computer. 1993.
[POL92] Polson, P.G; Lewis, C; Rieman, J;
Wharton C. Cognitive walkthroughs: A
method for theory- based evaluation of user
interfaces. International Journal of Man-
Machine Studies 36, 741-773. 1992.
[Sal06] Salinas, J. Laboratorio de Validación
de sistemas Virtual de Formación. Universidad
de Islas Baleares.
http://gte.uib.es/LVSV/act.htm. 2006.
[Sig01] Sigales C. El potencial interactivo de
los entornos virtuales de enseñanza y
aprendizaje en la educación a distancia. X
encuentro Internacional de Educación a
Distancia. Guadalajara, México. 2001.
[Wha94] Wharton, C; Rieman, J; Lewis, C;
Polson, P. The cognitive walkthrough method:
A practitioner's guide. In usability inspection
methods. Nielsen, J. and Mack, R.L. (Eds.),
New York: John Wiley & Sons, pp.105-141.
1994.
[Woo98] Woodward, B. Evaluation methods
in usability Testing. 1998.
[Zur99] Zurita, G; Sánchez, J; Nussbaum, M.
Taller Internacional de Software Educativo –
TISE´99. Universidad de Chile. 1999.
TE&ET'09 392

Más contenido relacionado

PPTX
Angie usabilidad
PPTX
Usabilidad de los sitios web
PPTX
Usabilidad de los sitios web, los métodos
PDF
07. clei 10 evaluación de usabilidad para aplicaciones web
DOCX
Evaluación de software educativo
DOCX
Evaluacion de software
PPTX
Presentacion de metodologia empleada en el proceso del desarrollo del software
PDF
METODOLOGIAS PARA EL ANALISI Y DISEÑO DE SISTEMAS
Angie usabilidad
Usabilidad de los sitios web
Usabilidad de los sitios web, los métodos
07. clei 10 evaluación de usabilidad para aplicaciones web
Evaluación de software educativo
Evaluacion de software
Presentacion de metodologia empleada en el proceso del desarrollo del software
METODOLOGIAS PARA EL ANALISI Y DISEÑO DE SISTEMAS

La actualidad más candente (17)

PDF
Congreso ENC - UWE para entornos virtuales colaborativos de aprendizaje
PPTX
usabilidad
PPTX
Usabilidad de los sitios web, métodos y evaluación
PDF
Calidad de software - Modelo de FURPS+
 
PDF
Relais v1-n4-p-125-134
PPTX
Modelo furps
DOC
Ariel ramirez cuadrocomparativo_actividad.2.2
PDF
Manual de tecnicas_para_el_diseno_participativo-usabilidad_corregido
PDF
Elizabeth guevararoa ciim2010
PPTX
Criterios de evaluacion
DOCX
Word pestaña archivo inicio
DOCX
Word pestaña inicio
PPT
Lineas de producto de software y el Metodo watch
DOCX
modelos de calidad de software
PDF
Procesos de Usabilidad
PDF
Ppt usabilidad
PPTX
Trabajo de sistemas 2
Congreso ENC - UWE para entornos virtuales colaborativos de aprendizaje
usabilidad
Usabilidad de los sitios web, métodos y evaluación
Calidad de software - Modelo de FURPS+
 
Relais v1-n4-p-125-134
Modelo furps
Ariel ramirez cuadrocomparativo_actividad.2.2
Manual de tecnicas_para_el_diseno_participativo-usabilidad_corregido
Elizabeth guevararoa ciim2010
Criterios de evaluacion
Word pestaña archivo inicio
Word pestaña inicio
Lineas de producto de software y el Metodo watch
modelos de calidad de software
Procesos de Usabilidad
Ppt usabilidad
Trabajo de sistemas 2
Publicidad

Destacado (18)

PPTX
PRESENTACION JACKE Y KATHE UNICATOLICA
PDF
Parcial corte 1 melany y alejandra
PPTX
SILENCIO ATROZ
PPT
Presentacion2
DOC
Constelaciones Familiares en Guatemala
PDF
MÉTODOS HÁBITOS TÉCNICAS DE ESTUDIO O APRENDIZAJE. PARA LA MEMORIA, EXÁMENES,...
PPTX
Aprendizaje autonomo
PPT
Hardware software
PDF
Nexsol
PPTX
La guerra fria juan esteban pulgarin guerra
PPTX
Rutas asimilativas y disimilativas
PPTX
PPTX
Estado benefactor
PPTX
Keinymar Dubraska Hernández prieto
PPTX
Presentacion corporacion
PPTX
Célula animal
DOCX
Costumbres en las Provincias Unidas entre 1820 y 1853
PRESENTACION JACKE Y KATHE UNICATOLICA
Parcial corte 1 melany y alejandra
SILENCIO ATROZ
Presentacion2
Constelaciones Familiares en Guatemala
MÉTODOS HÁBITOS TÉCNICAS DE ESTUDIO O APRENDIZAJE. PARA LA MEMORIA, EXÁMENES,...
Aprendizaje autonomo
Hardware software
Nexsol
La guerra fria juan esteban pulgarin guerra
Rutas asimilativas y disimilativas
Estado benefactor
Keinymar Dubraska Hernández prieto
Presentacion corporacion
Célula animal
Costumbres en las Provincias Unidas entre 1820 y 1853
Publicidad

Similar a Lectura franklin (20)

PPTX
investigacion usabilidad
PPTX
Usabilidad de los sitios web, los métodos
DOCX
Resumen evaluacion y rubricas
PPTX
Usabilidad en los sitios Web
PPTX
pruebas de usabilidad
PDF
Unidad 1. tema 1.4 lectura 3
PDF
Criterios
PDF
Evaluación de software educativo 1
PDF
Análisis de la importancia del uso de metodologías de desarrollo y métricas d...
PDF
Análisis de la importancia del uso de metodologías de desarrollo y métricas d...
PPTX
Plataformas E-learning LMS.pptx
PDF
Informe final grupo # 6
PPT
Evaluacion determinada acción dada en.ppt
PPTX
Usabilidad de los sitios web, los métodos y las técnicas para la evaluación
PPT
Evaluación con enfoque educativo para mejorar el aprendizaje SE.ppt
PPTX
Plataformas e learning(lms)
PDF
Ensayo de Maestría en Tecnología Educativa
PPTX
USABILIDAD DE LOS SITIOS WEB
PPTX
RESUMEN (Usabilidad de los sitios web etodologias y tecnicas de evaluacion)
DOCX
Evaluación de software educativo
investigacion usabilidad
Usabilidad de los sitios web, los métodos
Resumen evaluacion y rubricas
Usabilidad en los sitios Web
pruebas de usabilidad
Unidad 1. tema 1.4 lectura 3
Criterios
Evaluación de software educativo 1
Análisis de la importancia del uso de metodologías de desarrollo y métricas d...
Análisis de la importancia del uso de metodologías de desarrollo y métricas d...
Plataformas E-learning LMS.pptx
Informe final grupo # 6
Evaluacion determinada acción dada en.ppt
Usabilidad de los sitios web, los métodos y las técnicas para la evaluación
Evaluación con enfoque educativo para mejorar el aprendizaje SE.ppt
Plataformas e learning(lms)
Ensayo de Maestría en Tecnología Educativa
USABILIDAD DE LOS SITIOS WEB
RESUMEN (Usabilidad de los sitios web etodologias y tecnicas de evaluacion)
Evaluación de software educativo

Último (20)

PDF
Didactica de la Investigacion Educativa SUE Ccesa007.pdf
PDF
Integrando la Inteligencia Artificial Generativa (IAG) en el Aula
PDF
Gasista de unidades unifuncionales - pagina 23 en adelante.pdf
PDF
Escuela de Negocios - Robert kiyosaki Ccesa007.pdf
PDF
MATERIAL DIDÁCTICO 2023 SELECCIÓN 1_REFORZAMIENTO 1° BIMESTRE.pdf
PDF
Metodologías Activas con herramientas IAG
PDF
Habitos de Ricos - Juan Diego Gomez Ccesa007.pdf
PDF
Cronograma de clases de Práctica Profesional 2 2025 UDE.pdf
DOCX
V UNIDAD - PRIMER GRADO. del mes de agosto
DOCX
V UNIDAD - SEGUNDO GRADO. del mes de agosto
PDF
Guia de Tesis y Proyectos de Investigacion FS4 Ccesa007.pdf
PDF
Atencion prenatal. Ginecologia y obsetricia
PDF
Fundamentos_Educacion_a_Distancia_ABC.pdf
PDF
Unidad de Aprendizaje 5 de Educacion para el Trabajo EPT Ccesa007.pdf
PDF
Punto Critico - Brian Tracy Ccesa007.pdf
PDF
Conecta con la Motivacion - Brian Tracy Ccesa007.pdf
PDF
CONFERENCIA-Deep Research en el aula universitaria-UPeU-EduTech360.pdf
PPTX
Presentación de la Cetoacidosis diabetica.pptx
DOCX
PLAN DE CASTELLANO 2021 actualizado a la normativa
PDF
SESION 12 INMUNIZACIONES - CADENA DE FRÍO- SALUD FAMILIAR - PUEBLOS INDIGENAS...
Didactica de la Investigacion Educativa SUE Ccesa007.pdf
Integrando la Inteligencia Artificial Generativa (IAG) en el Aula
Gasista de unidades unifuncionales - pagina 23 en adelante.pdf
Escuela de Negocios - Robert kiyosaki Ccesa007.pdf
MATERIAL DIDÁCTICO 2023 SELECCIÓN 1_REFORZAMIENTO 1° BIMESTRE.pdf
Metodologías Activas con herramientas IAG
Habitos de Ricos - Juan Diego Gomez Ccesa007.pdf
Cronograma de clases de Práctica Profesional 2 2025 UDE.pdf
V UNIDAD - PRIMER GRADO. del mes de agosto
V UNIDAD - SEGUNDO GRADO. del mes de agosto
Guia de Tesis y Proyectos de Investigacion FS4 Ccesa007.pdf
Atencion prenatal. Ginecologia y obsetricia
Fundamentos_Educacion_a_Distancia_ABC.pdf
Unidad de Aprendizaje 5 de Educacion para el Trabajo EPT Ccesa007.pdf
Punto Critico - Brian Tracy Ccesa007.pdf
Conecta con la Motivacion - Brian Tracy Ccesa007.pdf
CONFERENCIA-Deep Research en el aula universitaria-UPeU-EduTech360.pdf
Presentación de la Cetoacidosis diabetica.pptx
PLAN DE CASTELLANO 2021 actualizado a la normativa
SESION 12 INMUNIZACIONES - CADENA DE FRÍO- SALUD FAMILIAR - PUEBLOS INDIGENAS...

Lectura franklin

  • 1. Un modelo de evaluación de entornos virtuales de enseñanza y aprendizaje basado en la usabilidad. Ariel Ferreira Szpiniak Departamento de Computación. Facultad de Ciencias Exactas, Físico-Químicas y Naturales. Universidad Nacional de Río Cuarto, Río Cuarto, Córdoba, Argentina. aferreira@exa.unrc.edu.ar Cecilia V. Sanz III LIDI, Facultad de Informática. Universidad Nacional de La Plata, La Plata, Buenos Aires, Argentina. csanz@lidi.info.unlp.edu.ar Resumen En este trabajo presentamos los avances en la generación de un modelo de evaluación de Entornos Virtuales de Enseñanza y de Aprendizaje (EVEA) basado en la usabilidad. El modelo propuesto forma parte de un trabajo de tesis correspondiente a la Maestría de Tecnología Informática Aplicada en Educación, de la Facultad de Informática de la UNLP. Se presentan aquí los lineamientos generales de las cuatro capas propuestas para el modelo, los métodos de evaluación de usabilidad seleccionados para cada una de ellas, y los evaluadores requeridos. Por último se detallan los componentes de la primera capa y las posibles formas de evaluarlos. Si bien el modelo de evaluación está en construcción, se tiene la intención de aplicarlo para un EVEA en particular, en un contexto institucional específico. Palabras claves: EVEA, usabilidad, evaluación. Introducción Los entornos virtuales de enseñanza y aprendizaje son aplicaciones informáticas diseñadas con el propósito de facilitar la comunicación pedagógica entre los participantes en un proceso educativo. Este proceso puede asumir modalidades diferentes: a distancia, presencial, o de naturaleza mixta (blended). Se caracterizan por utilizar redes, principalmente Internet, como soporte para permitir la comunicación entre los participantes del proceso, fundamentalmente docentes y alumnos. La Web es el servicio fundamental que posibilita a estos sistemas interactuar con los usuarios del mismo. En tal sentido, el diseño de los EVEA se rige por las normas básicas del diseño Web y las propias del dominio de aplicación, es decir, la educación. Deben ser lo suficientemente versátiles como para no condicionar la propuesta pedagógica y permitir un amplio abanico de posibilidades en cuanto a los modelos susceptibles de ser utilizados, desde un modelo centrado en el docente hasta un modelo centrado en el alumno [Sig01]. Es decir, lo importante es que el diseño tecnológico acompañe al modelo pedagógico, sin perder de vista que la herramienta tecnológica solamente, aunque sea la mejor, no garantiza el cumplimiento de los procesos educativos [Fai99]. Para conseguir estos objetivos, proveen herramientas que se ocupan de la gestión de usuarios, cursos, y herramientas de comunicación, evaluación, colaboración, distribución de contenidos, etc. Ahora bien, estos entornos presentan una serie de funcionalidades, a través de sus herramientas, para lograr que parte del proceso de enseñanza y aprendizaje pueda desenvolverse de manera mediada de la mejor manera. Pero, ¿cómo podemos saber si ese objetivo se logra? Para averiguarlo es necesario realizar una evaluación. La evaluación puede orientarse de diferentes maneras según lo que se pretenda evaluar. En general, la mayoría de los modelos de evaluación existentes analizan los EVEA desde el punto de vista funcional. Sin embargo, el análisis de las funcionalidades ideales no tiene en cuenta la forma en que se TE&ET'09 382
  • 2. puede poner en práctica todo su potencial. En la actualidad la mayoría de estos sistemas poseen un núcleo común de herramientas, con lo cual carece de sentido seguir analizándolos casi exclusivamente desde el punto de vista de sus características funcionales. Por tal motivo creemos necesario incorporar una forma de evaluar donde no se pierdan de vista estas características pero se prioricen otros aspectos centrados en el modo en que los usuarios finales toman contacto con la funcionalidad [Mon06]. En este sentido, la usabilidad es un concepto muy útil ya que puede considerarse como parte importante de la aceptabilidad práctica de un software junto con la utilidad funcional y otras variables (accesibilidad, costos, compatibilidad con otros sistemas, confiabilidad, soporte, etc.) [Nie93][Zur99]. La utilidad funcional se refiere a si el sistema hace lo que es necesario que haga, es decir, si responde a las metas por las que el sistema fue creado. La usabilidad busca analizar cuán bueno es un sistema como para satisfacer todas las necesidades y requerimientos de los usuarios [Fer07]. Evaluación de la usabilidad Las evaluaciones de usabilidad son factibles de utilizar en diferentes tipos de sistemas y distintas fases del proceso de desarrollo de software. Muchos de los métodos o técnicas existentes pueden aplicarse en más de una fase, sin embargo, la mayoría está destinada a capturar problemas de usabilidad en etapas tempranas de desarrollo. El objetivo es reducir el tiempo y el costo de producción. El tema se ha tornado tan importante que existe una rama específica de la ingeniería de software que se dedica exclusivamente a atacar este problema y que se la conoce con el nombre de Ingeniería de la Usabilidad. Esta mirada de la usabilidad se corresponde con el estándar ISO/IEC 9126-1 [ISO01] que define a la misma desde un punto de vista orientado al proceso, como una de las características de calidad interna y externa del software, junto con la funcionalidad, fiabilidad, eficiencia, mantenibilidad y portabilidad. El término es utilizado para referirse a la facilidad de uso, entendida como la capacidad para permitirle al usuario saber si la aplicación es adecuada para sus tareas y condiciones de uso particulares, si le posibilita aprender a utilizarla, operarla y controlarla, siendo al mismo tiempo atractiva, y sin que por ello deje de respetar los estándares, guías y convenciones internacionales. Otra forma de analizar la usabilidad es aquella que se ocupa de evaluarla como un atributo del producto final, en lugar de tomarlo en cuenta durante el desarrollo. El estándar ISO 9241 [ISO98] es el más representativo en este sentido y en cual se apoyan numerosos autores para fundamentar sus métodos de evaluación. La definición de usabilidad dada por este estándar posibilita que evaluadores, consultores, instituciones o empresas, que no necesariamente estén involucrados en el desarrollo del mismo, puedan medir su usabilidad. En este sentido se define a la usabilidad en términos de la efectividad, eficiencia y satisfacción con la que un sistema permite alcanzar los objetivos propuestos por los usuarios en un contexto de uso determinado. La eficiencia, entendida como los recursos empleados en relación con la precisión y plenitud con que los usuarios alcanzan sus objetivos propuestos, forma parte de la usabilidad, a diferencia del estándar ISO 9126-1 [ISO01] que la considera como otra característica del mismo nivel. La definición incluye también la efectividad del mismo, es decir, la precisión y plenitud con que los usuarios alcanzan los objetivos. Sin embargo, un sistema eficiente y efectivo puede no satisfacer al usuario si mediante su uso se siente incómodo y, producto de ello, adopta una actitud negativa hacia el mismo. Debido a esto, la satisfacción del usuario es otro de los puntos centrales a considerar en la evaluación. Posiblemente el hecho de centrarse en el contexto de uso sea uno de los rasgos más fuertes de esta mirada ya que pone el acento en la utilización concreta que el usuario hace del sistema, analizando en ese contexto las características del mismo. El contexto de uso involucra a los tipos de usuarios, las tareas, el equipamiento y el entorno físico y social TE&ET'09 383
  • 3. dentro del cual será utilizado el sistema. Para poder evaluarlo es necesario contar con usuarios reales, situaciones reales de trabajo y condiciones específicas. Por lo tanto el producto deberá estar concluido o en una etapa avanzada de desarrollo. El usuario y el entorno en el cual se utilizará el sistema pasan a ser ejes centrales para evaluar su usabilidad. En nuestro trabajo nos interesa evaluar los EVEA existentes en la actualidad desde el punto de vista de la usabilidad de los mismos. Si bien es permanente la evolución de estos sistemas y se producen nuevas versiones en cortos períodos de tiempo, la propuesta de evaluación que realizaremos será sobre entornos en pleno funcionamiento. La razón principal es que las diferentes etapas de análisis se apoyan en escenarios reales de uso, teniendo especial consideración por los alumnos y docentes, los objetivos que se proponen, las tareas específicas que realizan dentro del entorno durante las actividades de enseñanza y aprendizaje, el modelo mental que utilizan, el equipamiento e infraestructura del que disponen, el lugar físico donde habitualmente se desenvuelven y el entorno social en el cual están insertos. Esta forma de encarar la evaluación nos posiciona en una mirada centrada en productos finales, versiones de prueba, o en evoluciones, donde no es necesario formar parte del equipo de desarrollo para realizar la evaluación sino que alcanza con tener acceso a una versión operable del mismo. Puntos de partida propuestos Como hemos mencionado, la participación del usuario en el proceso de evaluación es fundamental para la obtención del grado de usabilidad de un software [Fer01]. Esto posibilita que puedan involucrarse personas ajenas a los equipos de desarrollo, tanto para evaluar productos en construcción, como así también productos terminados o nuevas versiones. Por lo tanto, es necesario que las herramientas de evaluación sean participativas y cuenten con la posibilidad cierta de incorporar a los usuarios finales en el proceso. Esto no implica que sean los únicos actores involucrados, sino que tal vez sea necesaria la intervención de observadores o personas expertas en el dominio o herramientas de automatización [Gon01]. Para lograr que el modelo sea efectivamente utilizado, los procesos de evaluación e interpretación de resultados deben poder hacerse de la forma más rápida y menos costosa posible. La usabilidad de un software es una característica que no puede determinarse evaluando el producto de manera aislada. Tampoco es posible medirla de una sola forma ya que depende del tipo de producto, el conjunto de usuarios y el contexto de uso. Es una medida relativa, y por lo tanto difícilmente existan reglas de usabilidad absolutas y aplicables por igual en todas las situaciones [Mor05]. Los modelos de evaluación existentes analizan los EVEA poniendo el foco sobre las funcionalidades que ofrecen. Sin embargo, la validación no ha de centrarse únicamente en el acceso a las herramientas concretas sino al ensayo con alumnos reales [Sal06]. El análisis de las funcionalidades ideales tampoco tiene demasiado en cuenta la usabilidad. Por ejemplo, se puede contar con una herramienta comunicación entre docentes y alumnos, con una gran cantidad de funcionalidades pero demasiado engorrosa de utilizar, entender o aprender por parte de usuarios no expertos. Estos modelos fueron pensados cuando las características diferían bastante entre un entorno y otro. En la actualidad, los entornos de mayor importancia poseen un núcleo común de herramientas. Donde todavía resta camino por recorrer es en cuestiones ligadas a la usabilidad, posiblemente porque son más difíciles de medir, como por ejemplo la flexibilidad para adecuar cada entorno, y sus herramientas, a distintos contextos o modelos de enseñanza y de aprendizaje. En el mejor de los casos, la usabilidad está restringida a la facilidad de uso y el cumplimiento de ciertos estándares. Las definiciones y heurísticas de usabilidad presentan una idea sobre las consideraciones que hay que tener a los efectos de alcanzar buenos niveles de usabilidad en los sitios Web. TE&ET'09 384
  • 4. Se busca entonces un modelo de evaluación de EVEA que integre ambas cuestiones. Es necesario contar con un modelo de evaluación específico. Un modelo centrado en la usabilidad debería nutrirse de los ya existentes, debido a que la evaluación de la funcionalidad es parte importante, pero debe tener en cuenta a docentes y alumnos trabajando en el entorno con la funcionalidad disponible. Otro aspecto de gran relevancia para alcanzar altos niveles de usabilidad es la accesibilidad. Para que un entorno sea usable, entre otras cosas, debe ser accesible. Dicho de otra manera, la accesibilidad es condición necesaria para la usabilidad. La accesibilidad tiene en cuenta factores humanos como así aspectos ligados al hardware y al software. Así, adultos mayores o personas sin motricidad fina tendrán serios inconvenientes en utilizar productos basados exclusivamente en el uso del mouse. Otros usuarios, sin éstas características pero con computadoras que no son de última generación, viejas versiones de navegadores, sin plugins, o conexiones lentas, estarán impedidos de utilizar el entorno si está realizado, por ejemplo, exclusivamente con tecnología multimedia. El método de evaluación de usabilidad que proponemos está orientado a una evaluación de producto, es decir, sobre entornos virtuales que ya han sido desarrollados y están en pleno funcionamiento. También puede facilitar la evaluación de nuevas versiones de un mismo sistema o la comparación entre ellas. Las ideas generales o puntos de partida para la búsqueda de este nuevo modelo que proponemos se basan en una estrategia de cuatro niveles o capas de evaluación que parten de lo general para llegar a lo particular, es decir, una estrategia top-down. A continuación presentaremos sintéticamente la idea de cada una de ellas. Primera capa Destinada a analizar gran parte de la aceptabilidad práctica del EVEA. La aceptabilidad práctica conjuga la utilidad (usefullness) con otras variables como costos, compatibilidad, confiabilidad, y soporte, entre los más importantes [Nie93][Zur99]. La utilidad a su vez está determinada por la utilidad práctica o funcional (utility), la usabilidad y la accesibilidad. En esta primera capa abordaremos el análisis de todos los componentes de la aceptabilidad práctica, menos el referido específicamente a usabilidad. Esto no significa que la evaluación de usabilidad esté ausente por completo en esta capa, sino que de acuerdo a la clasificación propuesta por Nielsen [Nie93] las variables que se analizarán son: utilidad práctica y accesibilidad (parte de la utilidad), junto con las características técnicas generales (antecedentes, potencial, tecnología utilizada, licencia, soporte, seguridad, acceso de usuarios), compatibilidad (servidor, usuario/cliente, formatos multimedia, integración) y robustez (integridad de funcionamiento, recuperación ante fallos, seguridad). Segunda capa Orientada a evaluar la forma en que el sistema interactúa con el usuario, la interfaz que presenta y el modo en que permite a los usuarios realizar las tareas básicas. Los métodos de inspección, como el recorrido cognitivo y la evaluación heurística resultan adecuados para este tipo de acciones [Lew93][Pol92][Wha94][Alv05][Con05][Nie9 0b][Nie92][Mac93][Man03b][Cat00]. En el recorrido cognitivo el especialista transita un escenario de tareas determinado como lo haría un usuario tipo. Es decir, combina el recorrido del software con un modelo cognitivo de aprendizaje por exploración. La evaluación heurística es una variante de la inspección formal donde los especialistas analizan que cada elemento de la interfaz de usuario siga las heurísticas de usabilidad establecidas. Para ello recorren meticulosamente las tareas con los propósitos y objetivos de los usuarios en mente, poniendo énfasis en el hallazgo de errores. Los dos métodos realizan recorridos desde el punto de vista del usuario, pero los paseos cognitivos ponen el énfasis en la teoría cognitiva, mientras la evaluación heurística lo hace más en las heurísticas y el hallazgo de TE&ET'09 385
  • 5. errores. Estos dos métodos de inspección pueden ser conjugados en uno solo para simplificar la evaluación. Tercera capa Una vez superadas las dos capas anteriores comienza a ser imprescindible la participación del usuario. En esta etapa se plantea incorporar la opinión de los usuarios finales bajo un ambiente controlado por un evaluador. Para esto son de gran ayuda los métodos de test de usuario, en particular los del tipo de expresión del usuario en base a preguntas, que en realidad son una variante del test de pensamiento en voz alta [Woo98]. Los usuarios participan de la evaluación realizando una o más tareas que formen parte de un escenario tipo. Es importante que los usuarios involucrados en los test abarquen los diferentes roles en que puede interactuarse con el EVEA (alumnos, docentes, administradores, etc.). Por otro lado, dentro de cada rol deben seleccionarse usuarios con diferente nivel de experiencia en el uso del servicio Web. A medida que el usuario interactúa con el entorno debe expresar en voz alta sus pensamientos, sensaciones y opiniones, mientras el evaluador capta y registra las impresiones y sensaciones que el usuario manifiesta oralmente, además de realizar preguntas directas cuando lo considera conveniente. De acuerdo a la experticia y al rol que deba desempañar el usuario puede resultar necesario que el test incluya una capacitación previa sobre las características del sistema o los aspectos a ser evaluados. Cuarta capa Está destinada exclusivamente a que los futuros usuarios finales aporten su punto de vista dentro de un contexto o ambiente real. Lógicamente, para realizar este tipo de evaluación también son adecuados los test de usuarios. En particular los test remotos son muy eficaces, rápidos y fáciles de realizar [Hom03] [Mon06]. Además el usuario realiza el test en su propio medio o ambiente, con lo cual es posible evaluar el contexto de uso. Los test remotos se basan principalmente en el uso de cuestionarios para recolectar la información. El evaluador sólo está encargado de elaborar, suministrar el cuestionario y posteriormente procesar los resultados. Relaciones Las capas plantean ciertos grados de contención del usuario, siendo el primer nivel el de mayor contención. La transición de un nivel a otro estaría dada por resultados aceptables en las evaluaciones. Es decir que, en el caso de productos en desarrollo, la usabilidad debería mejorar de un nivel a otro, ya que se supone que los errores y dificultades más importantes han sido detectados y corregidos en las etapas previas. Sin embargo, como mencionamos anteriormente, el modelo que se propone resulta más adecuado para evaluar productos terminados o para comparar nuevas versiones de un entorno respecto de las anteriores. Como hemos visto, la primera capa es la encargada de realizar una evaluación del entorno en general, mientras que las restantes se sitúan en un contexto de uso particular, por ejemplo un curso dentro de un EVEA particular. Evaluadores Los diferentes métodos de evaluación de usabilidad de aplicaciones Web requieren, entre otras cosas, de distinto tipo de evaluadores [Car02]. Por ejemplo, para la evaluación heurística es necesario gente experimentada en el diseño de interfaces e interacción humano-computadora, mientras que para realizar un recorrido cognitivo será de mayor utilidad contar profesionales relacionados con el dominio de la aplicación. En todo modelo los evaluadores cumplen un rol fundamental. El juicio emitido por ellos puede llevar a descartar el uso de un determinado producto o a desencadenar un profundo proceso de cambios en la aplicación. Determinar adecuadamente el tipo de evaluadores a seleccionar, y los conocimientos que deben poseer, es de vital importancia para la adecuada aplicación de los métodos de evaluación. Una vez superada esta instancia, la TE&ET'09 386
  • 6. obtención de datos fiables está sujeta a varios factores:  la adecuada selección de los evaluadores para posibilitar que las personas elegidas estén lo más próximas posible al perfil buscado, es decir, al evaluador “ideal”.  la cantidad de personas involucradas en la evaluación.  el tiempo que dispondrán para realizar la evaluación.  el compromiso que asumirán con la tarea.  los recursos materiales y económicos que se pondrán en juego. Por otra parte, de nada sirve contar con un excelente modelo de evaluación, y una apropiada determinación del perfil de los evaluadores, si a la hora de poner en práctica la evaluación no se utilizan con seriedad los instrumentos y se emiten juicios sesgados o poco objetivos. La diversidad de aspectos a analizar en un sitio Web, y en particular de un EVEA, hace imposible que un solo tipo de evaluador realice la tarea de forma confiable y completa. En virtud de ello es necesario contar con evaluadores dedicados al análisis del diseño de interfases, la utilización de estándares, otros abocados a los aspectos educativos generales, y finalmente aquellos que serán los beneficiarios directos del producto. Por tal motivo, de acuerdo al tipo de método de evaluación a utilizar es necesario clasificar a los usuarios en función de las tareas que llevará a cabo. Clasificaciones Existen diferentes propuestas sobre la forma de clasificación de los evaluadores. En general esta clasificación depende del tipo de sitios Web (objeto a evaluar) y del momento en que se desarrolle la evaluación, es decir, si se trata de un producto en alguna etapa de desarrollo o sobre una versión final. También es importante tener en cuenta los instrumentos y métodos que se utilizaran para recoger la información. Desde una mirada centrada en la usabilidad de los sitios Web, que puede ser aplicada también a los EVEA, existe un acuerdo entre los principales referentes del área para dividir a los evaluadores en dos tipos: expertos y usuarios [Car02]. Complementaremos al evaluador usuario con características adicionales como el rol que juega dentro del EVEA (docente o alumno), el perfil y el contexto de uso. Además, contaremos con observadores que colaboran en la aplicación del método de evaluación. Los observadores son imprescindibles ya que son los encargados (para varias de las técnicas de evaluación a implementar) de realizar la recolección de los datos, el registro y análisis de los mismos. Expertos Los expertos intervendrán en las dos primeras capas del modelo de evaluación propuesto de EVEA. Tendrán la particularidad de poseer muy buenos conocimientos acerca de la característica de usabilidad que se esté evaluando en cada una de las capas. La primera de ellas evalúa las características funcionales del producto, lo más “grueso”, de allí que los expertos que participarán de la evaluación serán de dos tipos: especialistas en educación y especialistas en tecnología. En la segunda capa se realiza una evaluación desde el punto de vista de la interfaz en combinación con los objetivos del usuario. El análisis de las heurísticas no se realiza de forma aislada sino aplicadas a lo que el usuario desea realizar con el sistema informático. Los productos educativos como los EVEA poseen características especiales que permiten llevar adelante procesos de enseñanza y de aprendizaje. De allí que al menos se distingan dos tipos de usuarios: docentes y alumnos. En este caso, los expertos asumen un doble rol, docentes y alumnos, en el contexto de realización de una serie de tareas generales dentro del entorno. Lo más importante es que el evaluador conozca el dominio de aplicación. Podría pensarse en contar con un solo tipo experto que desempeñe los roles de docente y alumno o varios tipos de acuerdo a la disponibilidad de recursos humanos, financieros y temporales. Una característica en TE&ET'09 387
  • 7. común es que el experto posea experiencia docente. Usuarios Los usuarios intervendrán en las dos últimas capas del modelo. Al igual que en el caso de los expertos existen diferentes roles de usuarios. Estos roles dependen de la propuesta educativa. Por ejemplo, los más recurrentes son: alumno, docente, tutor, colaborador, responsable, veedor, monitor, administrador y webmaster. Para esta propuesta utilizaremos dos roles básicos: uno que sintetice las labores de enseñanza que se pueden realizar en el entorno y otro que haga lo propio con las de un alumno. Las tareas a realizar dentro del entorno pueden diferir de acuerdo a la propuesta metodológica de cada una de las actividades educativas que se implementen bajo este soporte tecnológico. Por ejemplo, una propuesta centrada en el docente no utilizará los mismos recursos y herramientas que otra centrada en el alumno, así como tampoco será igual la forma de utilizar cada medio. A los efectos de sortear estos inconvenientes y poder realizar una evaluación lo más general posible, tomaremos como base una serie de escenarios y tareas comunes que puedan encontrarse en la mayoría de las propuestas virtuales. Designaremos a estos roles de la misma forma que lo hicimos para los expertos, es decir, docentes y alumnos, de acuerdo a la tarea que se pretenda evaluar. La diferencia principal entre los expertos y los usuarios radica en que los primeros realizan una simulación del rol docente y alumno, mientras que los usuarios son docentes y alumnos reales. Para la última capa, donde se realiza una evaluación utilizando usuarios finales pero en su medio habitual de trabajo y estudio, será considerada una nueva dimensión que permita poner de manifiesto el contexto de uso en el cual se utiliza el sistema. Los principales parámetros a considerar serán: ubicación geográfica, recursos técnicos disponibles (software, hardware, conectividad), edad, sexo y posibles limitaciones físicas. Desarrollo del Modelo A continuación desarrollaremos las características generales de la primera capa de evaluación. Las capas restantes se encuentran en proceso de construcción. Primera capa Tanto el desarrollo como la selección de un EVEA implica la toma de decisiones de tipo técnico y de carácter educativo [DeB00a] [DeB00b]. Si bien las cuestiones técnicas no son condición suficiente para garantizar la calidad del proceso de enseñanza-aprendizaje, está claro que sí son una condición necesaria, puesto que las mismas deben favorecer, y no obstaculizar, el modelo educativo y las decisiones metodológicas que se deseen implementar. En esta primera capa, la más general del modelo de evaluación, nos centramos en el análisis de las características funcionales de los EVEA, donde se consideran cuestiones técnicas así como las relacionadas con las facilidades para la organización académica y flexibilidad pedagógica. En este nivel no analizaremos la forma ni la calidad con que se pueden llevar a cabo los procesos educativos, sino que más bien intentamos determinar cuál es la riqueza que poseen desde el punto de vista de sus herramientas y posibilidades. Tampoco se abordarán cuestiones relacionadas con la gestión de contenidos por entender que los EVEA no están directamente focalizados hacia la edición de materiales on-line o creación de objetos de aprendizaje, sino a la planificación, desarrollo y evaluación del proceso de enseñanza y aprendizaje. Es por ello que a este nivel toma especial relevancia la versatilidad del entorno para adaptarse al desarrollo de distintos escenarios formativos (cursos, grupos de cursos, carreras, comunidades virtuales, etc.) porque la decisión de hacer uso de un EVEA, en general, está condicionada por el tipo de institución académica que se trate, sus modos de funcionamiento, estructura y organización. También es importante evaluar la forma en que puede dar soporte a diferentes modalidades educativas, sean éstas TE&ET'09 388
  • 8. presenciales, a distancia o mixtas, y a diferentes enfoques de enseñanza y aprendizaje. Para analizar éstas características de manera integral es necesario contar con un grupo plural de especialistas provenientes de diferentes disciplinas. En especial son necesarios expertos en tecnologías de la información y la comunicación, para abordar los aspectos puramente tecnológicos, y expertos en educación que centren su mirada sobre los aspectos pedagógicos y didácticos. Este tipo de evaluación ha sido muy común y recurrente, fundamentalmente a partir del año 2000, cuando comenzaron a proliferar un gran número de herramientas orientadas a favorecer el desarrollo de propuestas educativas on-line. Del análisis de cada uno de ellos se advierte que [Fer07]:  No existe acuerdo respecto a la clasificación o criterios a tener en cuenta para evaluar los EVEA.  Sí existen criterios y clasificaciones comunes en muchos de los modelos. Nuestra primer capa de evaluación podrá el énfasis sobre las coincidencias entre los modelos más importantes a efectos de construir un instrumento de evaluación general, centrado en los componentes tecnológicos de los EVEA pero sin perder de vista el componente pedagógico, ya que ambos son determinantes para la selección de un entorno adecuado [DeB05]. Se trata de un análisis descriptivo que puede efectuase a través de la documentación proporcionada por el producto, complementada con pruebas de instalación y puesta de funcionamiento de los cursos o aulas virtuales de demostración. Qué evaluar Para ello realizaremos un abordaje general cuyo objetivo es analizar la flexibilidad del entorno desde el punto de vista tecnológico, organizativo, y pedagógico/didáctico, incluyendo además el nivel de estandarización. Flexibilidad tecnológica Entendemos por flexibilidad tecnológica a las fortalezas y debilidades que posee el EVEA desde el punto de vista de sus características técnicas generales, compatibilidad con hardware y software, y robustez. Las características técnicas son uno de los aspectos clave que debemos tener en cuenta a la hora de seleccionar las herramientas que vamos a utilizar. Estas características deben adaptarse a las necesidades y posibilidades de cada organización o institución que decide utilizar un entorno de aprendizaje basado en redes [DeB05]. La flexibilidad tecnológica analiza en primer lugar las características técnicas principales del entorno en relación a sus antecedentes, potencial, tecnología en la cual está basado, requerimientos de software y de hardware, licencias, servicio y soporte técnico, seguridad, modo de acceso. Luego aborda compatibilidad, y por último la robustez. Flexibilidad organizativa La flexibilidad organizativa pone el acento en cuestiones administrativas y de interfaz. La administración es un punto crítico para tener éxito en la implantación del sistema. Este tipo de flexibilidad es muy importante porque puede reducir drásticamente los tiempos destinados a la administración, hacer más eficiente la puesta en funcionamiento de cada una de las instancias virtuales de formación, solucionar rápidamente problemas durante el desarrollo de las mismas, adaptar las interfaz a las necesidades institucionales, y posibilitar que, al menos, parte de las tareas administrativas puedan ser llevadas a cabo por usuarios que dispongan de mínimos conocimientos técnicos, de programación o administración de base de datos. Se consideran aquí las posibilidades para configurar perfiles de usuarios, altas, bajas, búsqueda, asignación y acceso de los mismos a sus respectivos cursos, o aulas virtuales. También se analizan las capacidades del entorno para gestionar, copiar y replicar espacios virtuales, obtener información sobre ellos, asignarle usuarios con perfiles y privilegios de acceso. Por último se tiene en consideración aspectos relacionados con la interfaz general del software, las posibilidades TE&ET'09 389
  • 9. de personalización, ayudas, y modos de visualización. Flexibilidad pedagógico/didáctica En esta categoría hacemos referencia a las funcionalidades que el entorno provee a docentes y alumnos para el desarrollo del proceso de enseñanza y aprendizaje. Está centrada en el contexto particular de un aula virtual, es decir, un espacio virtual específico para el desarrollo de una instancia educativa. Se trata de una de los aspectos más importantes porque está orientada al análisis del corazón del entorno, es decir, la riqueza que brinda para adaptarse a las diferentes propuestas pedagógicas y modalidades didácticas. Para un mejor detalle se han considerado diferentes tipos de herramientas: información, comunicación, colaboración, evaluación y específicas para el alumno. Las herramientas de información son las que ayudan a organizar las cuestiones metodológicas de un curso. En este sentido se consideran importante poseer herramientas para la explicitar la agenda de un curso, novedades ocurridas durante el transcurso del mismo, alertas o anuncios personalizados, pizarrón virtual, glosario de términos, información general e índice de contenidos. Las herramientas de comunicación interpersonal son uno de los pilares fundamentales dentro de los EVEA, ya que posibilitan el intercambio de información, el diálogo y discusión entre todas las personas implicadas en el proceso, contemplando diferentes tipos de comunicación: uno a uno, uno a muchos, muchos o muchos [Har90]. En particular, a las herramientas de comunicación las clasificamos de acuerdo a la necesidad temporal de participación de los usuarios, es decir, asincrónicas o sincrónicas. También contemplamos las herramientas que posibilitan la colaboración e interacción entre docentes y alumnos y entre los propios alumnos, y que facilitan a su vez el trabajo colaborativo a través de diferentes aplicaciones que permiten compartir información, trabajar con documentos conjuntos, etc. [DeB06]. En lo que respecta a las herramientas para evaluación contemplamos las que posibilitan la generación de ejercicios de evaluación, auto-evaluación, y encuestas on-line, aquellas que permiten la realización y entrega de actividades off-line o deberes, las relacionadas con la calificación y puntuación de los alumnos, las que facilitan la personalización del aprendizaje, las que se refieren a la monitorización y seguimiento de la actividad de los alumnos, y aquellas para el acceso a informes referentes a las calificaciones, ejercicios y actividades realizadas. Las de apoyo al alumno involucran herramientas específicas para facilitar el proceso de aprendizaje como la posibilidad de manipulación personal de los materiales, facilidad para obtener información sobre su progreso, la creación de un sitio Web personal o facilidades para almacenar sus trabajos y materiales en un espacio virtual propio. Estandarización Cualquier producto que pretenda ser de calidad debe posee altos niveles de estandarización. Los productos software no son la excepción, y menos aún aquellos que se basan exclusivamente en la Web. El proceso de estandarización de la Web ha convergido hacia aquellos que fueron propuestos por la World Wide Web Consortium (W3C). En particular son de interés para nuestro trabajo los estándares de la W3C orientados a la validez, accesibilidad e internacionalización del entorno. La validez tiene está relacionada con el lenguaje que permite la generación de contenidos para la Web (XHTML) y las hojas de estilo (CSS). La accesibilidad (WCAG) con el acceso a la Web por el mayor abanico posible de usuarios, independientemente de sus discapacidades. La internacionalización con el uso de pautas y códigos de índole general que puedan ser entendidos sin problemas por usuarios provenientes de otras culturas, idiomas, edades, etc. Cómo evaluar La forma en que evaluaremos éstas características será mediante la aplicación de diferentes métodos y técnicas. En el caso de la TE&ET'09 390
  • 10. flexibilidad tecnológica no tenemos un método de evaluación de usabilidad que se ajuste adecuadamente. Ello se debe al tipo de características que deben analizarse: antecedentes, potencial, tecnología, licencia, seguridad, acceso, compatibilidad, y robustez. La evaluación de dichas características puede realizarse mediante un cuestionario, completado a partir de la documentación disponible. Tanto la flexibilidad organizativa como la flexibilidad pedagógico/didáctica requieren al evaluador situarse en el rol de hipotético usuario para analizar si están dadas ciertas funcionalidades dentro del EVEA. Por tal motivo, el método de inspección de características resulta pertinente para la evaluación de flexibilidad organizativa y pedagógico/didáctica. Este método puede aplicarse mediante la técnica de cuestionario de tipo mixto. Por último nos encontramos con la estandarización, donde es imprescindible contar con documentación técnica y verificar una por una las interfaces del EVEA mediante la ayuda de alguna herramienta específica. El método de inspección de estándares se presenta como muy adecuado para realizar este proceso debido a que se trata de un método que chequea la interfaz y evalúa si cumple con los estándares que rigen en la Web. Las herramientas de verificación de estándares Web y de accesibilidad que funcionan on-line pueden ayudar en este proceso. Conclusiones y trabajos futuros En este artículo se ha realizado una presentación de los lineamientos generales de un modelo de evaluación de entornos virtuales de enseñanza y aprendizaje basado en cuatro capas, a partir de una evaluación de producto. Luego se ha presentado el concepto de evaluador, una clasificación posible, y la forma en que los evaluadores intervendrán en la evaluación. Por último hemos abordado la primera capa del modelo, detallando qué se debería evaluar y una idea de cómo hacerlo. Este modelo continúa en desarrollo y será aplicado a un caso específico de estudio, que dará a lugar a una retroalimentación por parte de los involucrados en la evaluación para perfeccionar el modelo. Bibliografía [Alv05] Alva Obeso, M. E. Metodología de Medición y Evaluación de la Usabilidad en Sitios Web Educativos. 2005. [Car02] Carvalho, A. Usability testing of educational software methods, techniques and evaluators. 3º Simposio Internacional de Informática Educativa. Portugal. 2002. [Cat00] Catalán Vega, M. Metodologías de evaluación de interfaces gráficas de usuario. http://eprints.rclis.org/archive/00004718. 2000. [DeB00a] De Benito, B. Posibilidades educativas de las webtools, Palma de Mallorca, Universidad de las Islas Baleares. 2000. [DeB00b] De Benito, B. Herramientas web por entorno de enseñanza-aprendizaje, en CABERO, J. y otros (coods): Medios audiovisuales y nuevas tecnologías para la formación en el siglo XXI, Murcia. 2000. [DeB05] De Benito, B; Salinas, J. Situaciones didácticas en los entornos virtuales de enseñanza-aprendizaje (EVEA) en la enseñanza superior: elaboración de un instrumento de análisis. Congreso Internacional EDUTEC, 2005. [DeB06]. De Benito, B; Salinas, J. Situaciones didácticas en los entornos virtuales de enseñanza-aprendizaje (EVEA) en la enseñanza superior: elaboración de un instrumento de análisis. Congreso EDUTEC. 2006. [Fai99] Fainholc, B. La interactividad en la educación a distancia. 1ª ed. Buenos Aires. Editorial Paidós. 1999. [Fer07] Ferreira Szpiniak, A; Sanz, C. Hacia un modelo de evaluación de entornos virtuales de enseñanza y aprendizaje. La importancia de la usabilidad. Anales del XIII CACIC. Corrientes y Resistencia. Argentina. 2007. [Gon01] González Rodríguez, J; Olsina, L. Hacia la Medición de Calidad en Uso Web.. http://www.dlsi.ua.es/webe01/articulos/s222.p df. 2001. TE&ET'09 391
  • 11. [Har90] Harasim, L. Online Education: An Environment for Collaboration and Intellectual Amplification. En Harasim, L. (Ed.): On line Education. Perspectives on a New Environment. Preaguer Pub., New York. 1990. [Hom03] Hom, J. The Usability Methods Toolbox. http://www.best.com/~jthom/usability/usable.h tm. 2003. [ISO01] Software Engineering – Product Quality – Part 1: Quality Model. ISO/IEC 9126-1. 2001. [ISO98] Ergonomic requirements for office work with visual display terminals. Dialogue principles. ISO 9241-10. 1998. [Lew93] Lewis, C.; Rieman, J.: Task-centrered user interface design QA Practical introduction. 1993. [Mac93] Mack, R.; Nielsen, J. Usability inspection methods. ACM SIGCHI Bulletin- June, 28-33. 1993. [Man03b] Manchón, E. Evaluación heurística (o por expertos) de la usabilidad. http://www.alzado.org/articulo.php?id_art=74. 2003. [Mon06] Usabilidad: ¿Qué?¿Cómo?¿Cuándo? ¿Dónde? ¿Para qué? Francisco Montero. Universidad de Castilla-La Mancha. España. 2006. [Mar05] Marcos, M; Rovira, C. Evaluación de la usabilidad en sistemas de información web municipales: metodología de análisis y desarrollo. En: Gascon, J., Burguillod F. y Pons A. (ed.). La dimensión humana de la organización del conocimiento. Universitat de Barcelona, Barcelona, España. 2005. [Nie90b] Nielsen, J; Molich, R. Heuristic evaluation of user interfaces. Proceedings of the CHI’90, ACM Press, pp 249-256. 1990. [Nie92] Nielsen, J. Finding usability problems through heuristic evaluation. Proceedings of the CHI’92, ACM Press, pp 373-380. 1992. [Nie93] Nielsen, J. Iterative User-Interface Design. IEEE Computer. 1993. [POL92] Polson, P.G; Lewis, C; Rieman, J; Wharton C. Cognitive walkthroughs: A method for theory- based evaluation of user interfaces. International Journal of Man- Machine Studies 36, 741-773. 1992. [Sal06] Salinas, J. Laboratorio de Validación de sistemas Virtual de Formación. Universidad de Islas Baleares. http://gte.uib.es/LVSV/act.htm. 2006. [Sig01] Sigales C. El potencial interactivo de los entornos virtuales de enseñanza y aprendizaje en la educación a distancia. X encuentro Internacional de Educación a Distancia. Guadalajara, México. 2001. [Wha94] Wharton, C; Rieman, J; Lewis, C; Polson, P. The cognitive walkthrough method: A practitioner's guide. In usability inspection methods. Nielsen, J. and Mack, R.L. (Eds.), New York: John Wiley & Sons, pp.105-141. 1994. [Woo98] Woodward, B. Evaluation methods in usability Testing. 1998. [Zur99] Zurita, G; Sánchez, J; Nussbaum, M. Taller Internacional de Software Educativo – TISE´99. Universidad de Chile. 1999. TE&ET'09 392