SciELO - Scientific Electronic Library Online

 
vol.7 número4Certificación de redes GPON, normativa ITU G.984.x índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Enfoque UTE

versión On-line ISSN 1390-6542versión impresa ISSN 1390-9363

Enfoque UTE vol.7 no.4 Quito oct./dic. 2016

https://doi.org/10.29019/enfoqueute.v7n4.110 

Ingeniería General

Interacción basada en gestos de dibujos para complementar el proceso de enseñanza-aprendizaje

Interaction Based on Drawing Gestures to Complement the Teaching-Learning Process

Ariosto Vicuña1 

Orlando Erazo1 

1 Universidad Técnica Estatal de Quevedo, Quevedo - Ecuador avicuna@uteq.edu.ec, oerazo@uteq.edu.ec


Resumen:

La interacción basada en gestos manuales ha experimentado notables avances en los últimos años. Su utilidad ha sido verificada en diferentes ámbitos, particularmente en el educativo, donde puede contribuir a mejorar la calidad de la educación. Sin embargo, aún existen temas que han recibido poca atención, tales como el uso de gestos de dibujos realizados en el aire con la mano. Por este motivo, este artículo analiza la viabilidad de emplear este tipo de gestos con fines educativos. Para el efecto, se llevó a cabo un estudio en el cual los participantes interactuaron con la aplicación desarrollada usando varios gestos de dibujos. Los resultados cuantitativos y cualitativos obtenidos confirman la validez de la propuesta. Específicamente, el rendimiento de los participantes fue aceptable de acuerdo con los valores de las métricas utilizadas. Además, los participantes manifestaron que la propuesta es interesante y entretenida. Como consecuencia, el uso de aplicaciones de este tipo, en el aula o en el hogar, podría contribuir a incrementar el interés de los estudiantes en la asignatura correspondiente, lo que debería conducir a obtener mejores resultados.

Palabras clave: gestos manuales; interacción sin contacto; tecnología de la información en educación; interacción humano-computador.

Abstract:

Interaction based on hand gestures has experienced a great progress in recent years. Its utility has been verified in several areas, particularly in the educational field, where it can contribute to enhance the quality of education. However, there are still some topics that have received little attention, such as the use of drawing gestures executed in the air with the hand. For this reason, this article analyzes the feasibility of using this type of gestures with educational purposes. With this aim, we conducted a study in which the participants interacted with the developed application by means of several drawing gestures. The obtained quantitative and qualitative results confirm the validity of our proposal. Specifically, the participants’ performance was acceptable according to the values of the used metrics. Moreover, the participants indicated the proposal is interesting and enjoyable. As a consequence, the use of applications of this type, in the classroom or at home, could contribute to increase the students’ interest in the corresponding subject, which should lead to obtain better marks.

Keywords: hand gestures; touchless interaction; information technology in education; human-computer interaction.

1. Introducción

Uno de los problemas con que deben tratar los docentes hoy en día, consiste en encontrar actividades adecuadas para complementar el proceso de enseñanza-aprendizaje. Las Tecnologías de la Información (TIs) han probado ser útiles para apoyar este proceso, incrementando el acceso y mejorando la relevancia de la calidad de la educación (Tinio, 2003). Además, los actuales estudiantes son nativos tecnológicos (Prenksy, 2001): más activos, aprenden dentro y fuera del salón de clase, y lo hacen de manera diferente que generaciones previas (Bennett, et al., 2008). La gran mayoría de estos estudiantes gustan mucho de los juegos y de nuevas formas de interacción con computadores. Ellos, en calidad de usuarios, son más exigentes, y por ende, satisfacer sus demandas apropiadamente se convierte en una tarea desafiante. Por lo tanto, si se busca mejorar el proceso de enseñanza-aprendizaje con el apoyo de TIs, las herramientas seleccionadas deberían permitir que los estudiantes se sientan atraídos y/o motivados a usarlas, lo cual podría lograrse mediante enfoques lúdicos.

Los diferentes actores involucrados en el proceso de enseñanza-aprendizaje disponen hoy en día de un sinnúmero de herramientas que pueden utilizar tanto dentro como fuera de la sala de clase. El uso de un computador o de un dispositivo móvil por parte de cada estudiante puede considerarse como la solución clásica. Cada estudiante interactúa con el software respectivo, como por ejemplo los juegos serios que han demostrado ser muy atractivos para los estudiantes al combinar aprendizaje con diversión (Susi, et al., 2007; Connolly, et al., 2012). No obstante, esta solución puede presentar otros inconvenientes adicionales a los costos necesarios (Groff & Mouza, 2008). Independientemente del software utilizado, y de si este se ejecuta en un computador o en un dispositivo móvil, otras aplicaciones que funcionen al mismo tiempo de realizar la actividad propuesta podrían causar distracciones como en el caso de correos electrónicos, redes sociales, etc. (Fang, 2009; Fried, 2008). Estos inconvenientes podrían evitarse si el estudiante interactuara únicamente con la aplicación deseada pero a cierta distancia, por ejemplo, mediante el uso de gestos.

La interacción basada en gestos ha sido usada por muchos años, pero recientes avances ofrecen nuevas oportunidades para el ámbito educativo. A partir del uso de guantes (Baudel & Beaudouin-Lafon, 1993), pasando por sostener un dispositivo de mando en la mano (Holzinger, et al., 2010), hasta llegar a la interacción sin contacto basada en movimientos del cuerpo y de las manos en especial (Erazo & Pico, 2014), las aplicaciones basadas en gestos pueden contribuir a hacer el proceso de aprendizaje más entretenido. Diversos trabajos dan muestras de estas oportunidades (Erazo & Pico, 2014; Kandroudi & Bratitsis, 2012; Hsu, 2011). En particular, con este estilo de interacción es posible, por ejemplo, controlar presentaciones, aprender alguna asignatura o tema en particular, simular laboratorios, etc., y en diferentes niveles educativos (Lui, et al., 2013; Johnson, et al., 2013; Meng, et al., 2013; Jagodziński & Wolski, 2015). Además, las aplicaciones de este tipo pueden ser utilizadas tanto en el salón de clase como en el hogar gracias a sus relativamente bajos costos.

Más allá de las utilidades mencionadas, la interacción basada en gestos aún podría ofrecer más oportunidades que todavía están pendientes de ser investigadas. Específicamente, existe un tipo de gestos que no ha recibido suficiente atención y que podría aportar beneficios. El tipo de gestos en mención, denominado gestos de dibujos (Erazo & Pico, 2014), es un tipo de gesto icónico que consiste en trazar en el aire el contorno de figuras (letras, números, etc.) utilizando la mano. A base de lo expuesto, este trabajo propone el uso de gestos de dibujos con fines educativos. Para el efecto, se ha llevado a cabo un estudio empírico con la finalidad de verificar si este tipo de gestos es bien acogido por los estudiantes y si se motivan a usarlos como medio de interacción con aplicaciones educativas. De ser así, el uso de aplicaciones de este tipo, en el aula o en el hogar, podría contribuir a incrementar la motivación y/o intervención de los estudiantes en la asignatura o tema correspondiente, conduciendo a mejorar el proceso de enseñanza-aprendizaje. En consecuencia, este artículo contribuye con resultados cualitativos y cuantitativos acerca de la factibilidad de esta propuesta, así como también discutiendo sus posibles implicaciones y utilidades.

2. Trabajos relacionados

A partir de la idea que las personas utilizan gestos como un medio de comunicación entre ellas, el uso de estos para “comunicarse” con computadores ha sido ampliamente estudiado a través de los años. Uno de los primeros trabajos de este tipo consistió en un sistema para controlar presentaciones que requería que el usuario usara un guante de datos (Baudel & Beaudouin-Lafon, 1993). Otras propuestas se han hecho posteriormente también usando guantes. Alternativas al uso de guantes también aparecieron más adelante, tales como aquellas basadas en marcadores de rastreo (Buchmann, et al., 2004) o en sostener un dispositivo como el Wii Remote de Nintendo (Holzinger, et al., 2010) o un teléfono celular (Kühnel, et al., 2011). No obstante, los recientes avances en visión por computador (ver por ejemplo (Wachs, et al., 2011)) junto con la salida al mercado de nuevos dispositivos, como MS-Kinect y Leap Motion, han permitido eliminar el uso de marcadores y el contacto físico con dispositivos. Todo esto, junto también con las mejoras en hardware en general, ha facilitado el desarrollo de aplicaciones de este tipo. Así, las interfaces basadas en gestos en la actualidad han trascendido el campo del entretenimiento (Wachs, et al., 2011), aunque su uso aún no se ha masificado. Una cantidad considerable de investigaciones confirman sus bondades en diferentes escenarios tales como museos (Mehler, et al., 2014), negocios (Giovanni, et al., 2012), hogares (Panger, 2012), entre otros. En todos estos casos el usuario controla las aplicaciones mediante movimientos de su(s) mano(s) (o de otra parte del cuerpo) sin tener contacto con dispositivo alguno.

De manera similar, diversos estudios han proporcionado evidencias de la utilidad de la interacción basada en gestos sin contacto en ambientes educativos (Erazo & Pico, 2014; Kandroudi & Bratitsis, 2012; Hsu, 2011). En términos generales, este estilo puede facilitar y mejorar el proceso de enseñanza-aprendizaje porque provee interacciones significativas (Hsu, 2011). Los docentes pueden emplear aplicaciones de este tipo en las salas de clases, o los alumnos pueden usarlas como complemento educativo en sus hogares. En el primer caso, ellas pueden contribuir a incrementar la participación de los alumnos, facilitar la manipulación de material educativo, fomentar la discusión y crear clases más entretenidas (Hsu, 2011). Entre las utilidades que han sido ilustradas en investigaciones previas se pueden mencionar:

Apoyar en la enseñanza de asignaturas como matemáticas o anatomía. Por ejemplo, en el primer caso se pueden controlar funciones algebraicas o entender conceptos trigonométricos con movimientos corporales (Johnson, et al., 2013; Nandi, et al., 2016), mientras que en el segundo es posible manipular modelos tridimensionales que representan a órganos del cuerpo (Meng, et al., 2013)

Controlar presentaciones empleando gestos manuales, tales como tocar un hombro o “presionar” botones con la mano (Lui, et al., 2013)

Aprender otros idiomas, en cuyo caso el uso de la interacción gestual puede contribuir a motivar el aprendizaje, por ejemplo, del inglés (Lee, et al., 2012). Así mismo, el uso de gestos puede apoyar la adquisición de lenguaje porque la lectura de libros en sistemas basados en gestos puede ser una actividad interesante y atractiva para los niños (Homer, et al., 2014)

Crear laboratorios virtuales tales como un laboratorio de química en el cual los alumnos pueden llevar a cabo las mismas actividades que realizarían en un laboratorio real (Jagodziński & Wolski, 2015). Así por ejemplo, se simulan las acciones de sujetar el equipo necesario y combinar sustancias

Convertir una superficie cualquiera, como la pared de un salón de clases, en pizarras interactivas con costos inferiores a los de una pizarra interactiva convencional (Şimşek & Durdu, 2014)

Asimismo, los estudiantes pueden reforzar lo aprendido en clase manteniendo las ventajas antes señaladas. Aunque en general se pueden utilizar en el hogar las mismas aplicaciones empleadas en las instituciones educativas, algunas de ellas pueden ser más adecuadas de utilizar en el hogar debido a, por ejemplo, limitaciones de espacio o tiempo, o esfuerzo físico requerido. Algunos ejemplos de aplicaciones que podrían estar dentro de este grupo son descritos por Kandroudi y Bratitsis (2012).

Las aplicaciones antes mencionadas ponen de manifiesto claramente la utilidad del uso de gestos como medio de interacción con software con fines educativos, pero pocos trabajos han abordado el uso de gestos de dibujos manuales sin contacto. Estos gestos son representaciones visuales de símbolos (Piumsomboon, et al., 2013); es decir, su ejecución consiste en trazar o describir icónicamente una ruta en el aire. Los trazos realizados típicamente corresponden a letras, números o figuras geométricas, y usualmente son ejecutados manteniendo una pose estática de la mano (Piumsomboon, et al., 2013)-por ejemplo, la mano cerrada o el dedo índice levantado. Un ejemplo del uso de estos gestos consiste en trazar una “X” para cerrar la aplicación correspondiente. A pesar de las evidencias que existen en cuanto a las preferencias de los usuarios hacia este tipo de gestos (Piumsomboon, et al., 2013), su uso con fines educativos ha sido escasamente explorado. Básicamente, los gestos de dibujos han sido empleados con la finalidad de incrementar el nivel de aprendizaje de un segundo idioma y practicar las tablas de multiplicar (Akazawa, et al., 2014b; Akazawa, et al., 2014a). En estos dos casos la evaluación realizada proporcionó evidencia inicial de su utilidad, pero ambos presentan también limitaciones. En el primero (Akazawa, et al., 2014b) los participantes manifestaron haber disfrutado la experiencia pero el número de ellos fue muy limitado (dos personas). El otro estudio (Akazawa, et al., 2014a), a pesar de contar con la participación de más niños, no consideró ciertos aspectos importantes para concluir si el uso de gestos de dibujos puede ser adecuado o no con fines educativos. Dichos aspectos corresponden a métricas de rendimiento al realizar las tareas y opiniones de los participantes. Por lo tanto, el estudio descrito en este artículo busca también superar las limitaciones previas según se explica en la siguiente sección.

3. Metodología

En esta sección se describe el estudio realizado con la finalidad de analizar la viabilidad de utilizar gestos de dibujos como forma de interacción con aplicaciones educativas. En términos generales, el estudio, llevado a cabo en un ambiente controlado, consistió en ejecutar varios gestos de este tipo para interactuar con la aplicación desarrollada. Esto permitió recolectar datos cuantitativos y datos subjetivos para verificar la propuesta. Los detalles del estudio son descritos a continuación.

3.1 Materiales

En primer lugar se procedió a desarrollar el software experimental a utilizar en el estudio (Figura 1). La aplicación consistió en hacer preguntas de opción múltiple a los usuarios quienes debían responderlas realizando un gesto de dibujo en el aire con su mano. La utilidad de este enfoque de preguntas/respuestas en educación ha sido demostrada previamente (Beekes, 2006) y además puede ser aplicado en cualquier área. La aplicación mostraba automáticamente una pregunta a la vez y registraba la respuesta correspondiente. Las respuestas eran ingresadas por los participantes en forma de gestos grafiti (Castellucci & MacKenzie, 2008) que correspondían a las cuatro primeras letras del alfabeto. Las representaciones gráficas de los gestos/letras, indicando el punto de inicio, fueron colocadas junto a cada una de las cuatro posibles respuestas (ver Figura 1). El reconocimiento de gestos se llevó a cabo usando el algoritmo “Dynamic Time Warping” (Senin, 2008), que es uno de los algoritmos exitosos para este tipo de tareas (Wachs, et al., 2011). Las respectivas plantillas requeridas para hacer las comparaciones fueron generadas previamente con la colaboración de otra persona (que no participó en el estudio). El uso de estas plantillas, la precisión del algoritmo (aunque esta ha sido ampliamente demostrada) y los demás aspectos del estudio fueron verificados en pruebas preliminares. La aplicación también siguió el paradigma de realidad aumentada, que consistió en aumentar la percepción de lo que el sujeto veía en su entorno real con los controles empleados como parte de la interfaz de usuario (Piumsomboon, et al., 2013; Giovanni, et al., 2012). Es necesario tener en cuenta también que este enfoque ya ha sido empleado adecuadamente en trabajos previos (Akazawa, et al., 2014b; Akazawa, et al., 2014a), pero a diferencia de ellos, en este estudio se optó por no mostrar el dibujo del gesto con la finalidad de evitar efectos de “feedback” (retroalimentación) visual (Kim, et al., 2012). Además, el espacio de interacción fue definido según lo sugerido por Erazo y Pico (2014) facilitando así la interacción (ver Figura 1). Adicionalmente, la aplicación realizaba los cálculos y registros necesarios tal como se explica más adelante.

Fig. 1: Configuración utilizada en el estudio. 

El hardware utilizado (Figura 1) consistió en el computador en el cual se ejecutó la aplicación antes descrita, y en un sensor Kinect y un proyector conectados a dicho computador. El uso de Kinect y de su SDK para Windows, facilitó la tarea de hacer seguimiento de la mano mediante las coordenadas obtenidas en tres dimensiones y la creación del ambiente aumentado usando las imágenes RGB. El Kinect fue colocado aproximadamente a un metro de altura y debajo de la pantalla proyectada.

3.2 Participantes

Veinte estudiantes, diez hombres y diez mujeres, aceptaron participar en el estudio. Las edades de ellos estuvieron comprendidas entre 18 y 19 años, y cinco fueron zurdos. Todas estas personas se encontraban cursando el primer año de Ingeniería en Sistemas al momento de realizar el estudio, por lo cual eran usuarios habituales de computadores. Ninguno de ellos recibió compensación alguna por su participación.

3.3 Datos recolectados

Durante el estudio se recolectaron datos tanto cuantitativos como cualitativos. Estos datos fueron recolectados de varias maneras, según se detalla a continuación:

Tiempo: la aplicación fue desarrollada de manera que calcule automáticamente el tiempo requerido para ingresar cada respuesta; o sea, ejecutar el gesto. El tiempo fue calculado como el intervalo desde que el participante levantaba la mano para responder hasta cuando la regresaba a su lugar original (junto a las caderas) después de haber contestado. Estos valores fueron guardados en forma de “logs” para todos los participantes.

Errores: se contaron como errores las veces en las cuales la aplicación no fue capaz de reconocer el gesto ingresado por el participante, en cuyo caso debió repetir el gesto. Este registro también se realizó en forma automática.

Cuestionario: los participantes completaron un cuestionario de seis preguntas al terminar la tarea encargada. Este cuestionario tuvo dos clases de preguntas. Las primeras cuatro, que debían responderse usando una escala de Likert de 1 (extremadamente baja o nada) a 7 (extremadamente alta) se refirieron a la dificultad de aprendizaje, fatiga, confort y dificultad de realizar la tarea. Las otras dos preguntas solicitaban a los participantes opinar abiertamente sobre posibles problemas experimentados y sobre la interacción.

3.4 Procedimiento

El estudio inició con una descripción general de él y la confirmación de participación de los estudiantes luego de ser debidamente informados. Después de ello, los participantes recibieron instrucciones sobre cómo realizar la tarea. Las instrucciones indicaban también la forma de iniciar y terminar la respuesta a cada pregunta; es decir, usar la mano dominante y no levantarla hasta tener preparada mentalmente la respuesta a ingresar. Esto permitió registrar exclusivamente el tiempo requerido para realizar el gesto, ya que el estudio no se concentró en las operaciones mentales necesarias para obtener la respuesta. Además, usando tales posiciones iniciales y finales se evitó incrementar la fatiga que puede originarse cuando los usuarios mantienen sus manos en el aire durante períodos de tiempo prolongados o innecesarios (Ren & O'Neill, 2013).

Después de recibir las instrucciones cada participante se colocó de pies, aproximadamente a tres metros de la pantalla (tomando en cuenta las limitaciones del sensor (González-Jorge, et al., 2013)). Desde ahí respondió a cada una de las preguntas que fueron mostradas una por una en forma aleatoria. Las preguntas fueron elaboradas previamente a base del contenido de una de las asignaturas que los participantes se encontraban estudiando durante el semestre en curso. Cada participante respondió un total de doce preguntas (cuatro opciones por tres veces cada una) dibujando el gesto correspondiente (gestos grafiti “A” - “D”, Figura 1). Sin embargo, debido a que ninguno de ellos tenía experiencia previa con gestos de dibujos hechos en el aire (aunque algunos habían utilizado algún juego basado en Kinect previamente) se consideró adecuado no incluir en el análisis la primera ejecución de cada gesto.

4. Resultados

Los resultados reportados en esta sección fueron calculados con un total de 40 gestos para cada letra; es decir, se utilizaron un total de 160 gestos. El análisis de varianza (ANOVA) reveló la diferencia significativa entre gestos (F 3,54 = 37.117, p < 0.0001). El orden de ingreso (la segunda y tercera ejecución de cada gesto) no tuvo efecto en el tiempo (F 1,18 = 0.002, ns), pero sí se observó un efecto de interacción entre gestos y orden de ingreso (F 3,54 = 3.691, p < 0.05). Sin embargo, el test de comparación de pares (PostHoc) mostró que no hubo diferencias entre las segundas y terceras ejecuciones de cada gesto, por lo cual se decidió usar el promedio de ambas. El análisis estadístico también mostró que no hubo diferencia significativa por sexo (F 1,18 = 0.709, ns), ni efecto de interacción entre sexo y gestos (F 3,54 = 0.157, ns). Así, la Figura 2 muestra los tiempos promedio requeridos para realizar cada uno de los gestos.

Fig. 2: Tiempo promedio (± 1 SD) para realizar cada gesto.  

La presencia de errores fue escasamente observada en el estudio. El número total de errores fue de siete entre todos los participantes, pero fueron cometidos únicamente por cinco de ellos. Dos personas cometieron dos errores para el gesto “B” (uno en la misma respuesta y la otra en diferentes respuestas). Los otros tres errores correspondieron al gesto “D”.

La Figura 3 muestra los puntajes en promedio asignados por los participantes a cada una de las preguntas del cuestionario. Tanto la dificultad de aprender como de interactuar con la aplicación usando los gestos propuestos recibieron puntajes de 2.5. Así mismo, la fatiga reportada fue baja (1.7), mientras que el confort alcanzó un valor de 5.4.

Fig. 3: Puntaje promedio (± 1 SD) de cada pregunta del cuestionario. 

Aunque en general los participantes respondieron positivamente las preguntas abiertas, hay algunos detalles que se considera necesario mencionar. Tres participantes señalaron haber experimentado cierto tipo de problema. Dos de ellos dijeron que su “seudo” problema fue “olvidar las alternativas a ingresar (pero que se solucionaría con práctica)”, mientras que los otros dos manifestaron haber sentido una ligera incomodidad al responder pero sin dar detalles adicionales. Aunque cuatro participantes no proporcionaron ningún comentario general, once dijeron explícitamente que la tarea les pareció interesante, entretenida y/o fácil de realizar. Las personas restantes hicieron ciertas sugerencias como “mostrar el dibujo del gesto quizá podría ser de utilidad” y “mejorar el punto que indicaba el inicio del gesto”, pero no manifestaron estar en desacuerdo con la propuesta.

5. Discusión

Los resultados descritos en la sección previa confirman la viabilidad de la propuesta de usar aplicaciones basadas en gestos de dibujos como un complemento educativo. Sin embargo, es necesario mencionar algunos aspectos adicionales referentes al diseño de aplicaciones de este tipo y sus posibles usos.

En primer lugar, el rendimiento de los usuarios podría incrementar o disminuir según ciertas condiciones. En este estudio los tiempos fueron calculados a base de posiciones iniciales y finales específicas, pero en la realidad los usuarios pueden adoptar otras posiciones que podrían influir en el tiempo requerido. Estas posiciones también podrían tener influencia en la fatiga de una o más partes del cuerpo. Otro aspecto que también podría incrementar la fatiga, así como el tiempo y errores, es la forma de realizar los gestos. En el estudio se pudo observar cierta incomodidad en los participantes que utilizaron su mano izquierda para realizar los gestos. Este es un detalle entendible debido a que se fijó un punto inicial para los gestos. Sin embargo, esta limitación podría resolverse creando plantillas con otros puntos de inicio, o mejor aún, utilizando un algoritmo que no dependa de un punto inicial específico como el descrito por Anthony y Wobbrock (2010).

El feedback visual es otro factor que podría tener efecto en el rendimiento de los usuarios. En base a hallazgos previos (Kim, et al., 2012), la aplicación desarrollada no mostró el trazo de los gestos realizados. Aunque algunos de los participantes propusieron mostrar el “dibujo”, esto podría hacerse en ciertos casos. Se puede así sugerir que si el objetivo perseguido requiere visualizar el trazo realizado, entonces se puede incorporar este feedback visual en la aplicación. Por el contrario, si los gestos corresponderán a comandos, entonces podría omitirse su visualización, pero el comando ejecutado deberá informar al usuario que la acción se ha llevado a cabo, como es el caso de la aplicación aquí usada (es decir, se acepta la respuesta).

Las limitaciones del hardware actual también podrían afectar no solo la eficiencia de los usuarios sino además la experiencia de interacción en general. Así por ejemplo, si se utiliza el Kinect (u otro sensor similar) en ambientes expuestos a la luz solar o si se incrementa mucho la distancia a la que se encuentra el usuario, la precisión en el reconocimiento disminuirá (Gonzalez-Jorge, et al., 2013).

Además, aunque el estudio fue realizado en un ambiente de laboratorio, a base de otros trabajos antes mencionados se puede inferir que el estilo de interacción propuesto podría usarse para complementar el proceso de enseñanza-aprendizaje adecuadamente ya sea en el hogar o en la sala de clases. En primer lugar, la aplicación empleada incluyó preguntas de un área concreta, pero esta podría ser de utilidad también en otras áreas simplemente cambiando las preguntas y respuestas. De hecho, la aplicación podría ser mejorada hasta convertirse en un producto terminado que permita al docente gestionar sus propias preguntas y respuestas, así como también incorporar otras opciones adicionales como número de respuestas, gestos usados para responder, etc. Este software resultante podría ser empleado en clase, por ejemplo, para preguntar a los estudiantes sobre su entendimiento del tema abordado pero de forma lúdica. En este caso, la interacción podría no necesariamente realizarse desde un lugar específico sino más bien desde el asiento del alumno que participa, lo que requiere abordar otros problemas como la resolución de conflictos al tener varios usuarios (Plaumann, et al., 2016) y el número de personas que se pueden reconocer y seguir simultáneamente. Por el contrario, el mismo software podría ser empleado para complementar el aprendizaje pero desde el hogar. Un posible ejemplo de esto es que el alumno repase el tema estudiado en clase, o que incluso lo haga en compañía de sus familiares o amigos, caso en el cual quizá sería más adecuado darle el enfoque de juego serio (Susi, et al., 2007). En definitiva, la aplicación desarrollada para este estudio constituye un ejemplo del uso que se le puede dar a los gestos de dibujos en ambientes educativos.

Desde luego, muchas otras aplicaciones podrían considerarse a futuro usando el mismo estilo de interacción propuesto. De hecho, algunas de las aplicaciones desarrolladas en trabajos relacionados podrían incorporar el uso de gestos de dibujos, y en particular los juegos serios (Susi, et al., 2007; Connolly, et al., 2012). Un ejemplo de estas aplicaciones puede consistir “dibujar” el número que corresponde a la respuesta de una operación matemática (similar a la propuesta de Akazawa et al. (2014a)). Otro ejemplo es ingresar la letra que corresponde a una palabra que se trata de adivinar (como en el juego “el ahorcado”) o cuya pronunciación ha sido emitida en forma auditiva (análogo a lo planteado por Akazawa et al. (2014b)). Otras opciones podrían incluir también el uso de figuras geométricas o símbolos, por ejemplo, para complementar una clase donde se usen fórmulas.

6. Conclusiones

Si se tiene en cuenta que una cantidad considerable de trabajos han reportado beneficios de las interfaces basadas en gestos para apoyar el proceso de enseñanza-aprendizaje, este artículo ha abordado un tipo de gestos que no ha sido suficientemente estudiado: los gestos de dibujos en el aire. Efectivamente, los resultados del estudio realizado confirman la utilidad de este tipo de gestos con fines educativos de acuerdo con las métricas utilizadas y las opiniones de los participantes.

En primer lugar, los tiempos requeridos para realizar los gestos se pueden considerar aceptables (2.7 segundos en promedio). Aunque superiores, estos valores son comparables tanto con los reportados por otras técnicas para hacer selecciones basadas en gestos en el aire (Ren & O'Neill, 2013) (asumiendo que se pretende seleccionar una respuesta de otra forma) como con los requeridos para ejecutar el mismo tipo de gestos en otros estilos de interacción (Castellucci & MacKenzie, 2008). En cualquier caso, estas diferencias de tiempo podrían no ser tan relevantes en comparación a los demás beneficios que el uso de este estilo de interacción puede aportar.

El aceptable rendimiento al realizar los gestos según el factor tiempo se complementa con la pequeña cantidad de errores observados. Este aspecto es notable especialmente porque todos los participantes ejecutaban este tipo de gestos por primera vez. Además, estos errores, al igual que el tiempo requerido, deberían disminuir aún más con la respectiva práctica.

De manera similar, los resultados obtenidos a base del cuestionario complementan lo inferido a partir de las métricas. Según la opinión de los participantes, los gestos utilizados fueron fáciles de aprender y de ejecutar, se sintieron confortables al realizarlos y les ocasionaron una fatiga mínima. Adicionalmente, más de la mitad de ellos expresó claramente haber disfrutado la experiencia. Todo esto permite concluir que los gestos de dibujos son bien acogidos por los estudiantes y podrían contribuir a incrementar su motivación al momento de realizar tareas educativas.

Finalmente, los aspectos referentes al diseño de aplicaciones del tipo propuesto y sus usos adicionales antes discutidos podrían considerarse en investigaciones futuras. Así mismo, podrían abordarse otros aspectos tales como contar con diferentes tipos de participantes (por ejemplo, niños), realizar la evaluación en un ambiente real (por ejemplo, durante una clase) y verificar en qué medida contribuye el uso de gestos. Tanto los resultados aquí reportados como los de estos posibles trabajos futuros deberían conducir a mejores aplicaciones basadas en gestos que ayuden a complementar y mejorar el proceso de enseñanza-aprendizaje.

Bibliografía

Akazawa, N., Takei, Y., Suzuki, M., Nakayama, Y., & Kakuda, H. (2014a). Trial of Learning Support System Using Kinect in After School Care Programs. Journal of information processing, 22(4), 574-582. [ Links ]

Akazawa, N., Yawata, K., Takeda, D., Nakayama, Y., Kakuda, H., & Suzuki, M. (2014b). A Playing and Learning Support System Using Kinect for Romaji. Proc. 3rd Global Conference on Consumer Electronics (pp. 345-349 ). IEEE. [ Links ]

Anthony, L., & Wobbrock, J. O. (2010). A Lightweight Multistroke Recognizer for User Interface Prototypes. Proc. Graphics Interface 2010 (pp. 245-252 ). Canadian Information Processing Society. [ Links ]

Baudel, T., & Beaudouin-Lafon, M. (1993). Charade: remote control of objects using free-hand gestures. Communications of the ACM, 36(7), 28-35. [ Links ]

Beekes, W. (2006). The 'millionaire' method for encouraging participation. Active learning in higher education, 7(1), 25-36. [ Links ]

Bennett, S., Maton, K., & Kervin, L. (2008). The 'digital natives' debate: A critical review of the evidence. British journal of educational technology, 39(5), 775-786. [ Links ]

Buchmann, V., Violich, S., Billinghurst, M., & Cockburn, A. (2004). FingARtips - Gesture Based Direct Manipulation in Augmented Reality. Proc. 2nd international conference on Computer graphics and interactive techniques in Australasia and South East Asia (pp. 212-221 ). ACM. [ Links ]

Castellucci, S. J., & MacKenzie, I. S. (2008). Graffiti vs. unistrokes: an empirical comparison. Proc. SIGCHI Conference on Human Factors in Computing Systems (pp. 305-308 ). ACM. [ Links ]

Connolly, T. M., Boyle, E. A., MacArthur, E., Hainey, T., & Boyle, J. M. (2012). A systematic literature review of empirical evidence on computer games and serious games. Computers & Education, 59(2), 661-686. [ Links ]

Erazo, O., & Pico, R. (2014). Interfaces de usuario basadas en gestos manuales sin contacto para la sala de clases: una revisión bibliográfica. Enfoque UTE, 5(4), 34-53. [ Links ]

Fang, B. (2009). From distraction to engagement: Wireless devices in the classroom. Educause Quarterly, 32(4), 4-9. [ Links ]

Fried, C. B. (2008). In-class laptop use and its effects on student learning. Computers & Education , 50(3), 906-914. [ Links ]

Giovanni, S., Choi, Y. C., Huang, J., Khoo, E. T., & Yin, K. (2012). Virtual Try-On Using Kinect and HD Camera. Proc. International Conference on Motion in Games (pp. 55-65 ). Springer Berlin Heidelberg. [ Links ]

González-Jorge, H., Riveiro, B., Vázquez-Fernández, E., Martínez-Sánchez, J., & Arias, P. (2013). Metrological evaluation of Microsoft Kinect and Asus Xtion sensors. Measurement, 46(6), 1800-1806. [ Links ]

Groff, J., & Mouza, C. (2008). A Framework for Addressing Challenges to Classroom Technology Use. AACe Journal, 16(1), 21-46. [ Links ]

Holzinger, A., Softic, S., Stickel, C., Ebner, M., Debevc, M., & Hu, B. (2010). Nintendo Wii remote controller in higher education: development and evaluation of a demonstrator kit for e-teaching. Computing and Informatics, 29(4), 601-615. [ Links ]

Homer, B., Kinzer, C., Plass, J., Letournear, S., Hoffman, D., Bromley, M., Hayward, E., Turkay, H., & Kornak, Y. (2014). Moved to learn: The effects of interactivity in a Kinect-based literacy game for beginning readers. Computers & Education , 74, 37-49. [ Links ]

Hsu, H. M. (2011). The potential of kinect in education. International Journal of Information and Education Technology, 1(5), 365-370. [ Links ]

Jagodziński, P., & Wolski, R. (2015). Assessment of Application Technology of Natural User Interfaces in the Creation of a Virtual Chemical Laboratory. Journal of Science Education and Technology, 24(1), 16-28. [ Links ]

Johnson, K., Pavleas, J., & Chang, J. (2013). Kinecting to Mathematics through Embodied Interactions. Computer, 46(10), 101-104. [ Links ]

Kandroudi, M., & Bratitsis, T. (2012). Exploring the educational perspectives of XBOX kinect based video games. Proc. ECGBL (pp. 219-227 ).Links ]

Kim, J. H., Lim, J. H., & Moon, S. H. (2012). The Effect of Visual Feedback on One-hand Gesture Performance in Vision-based Gesture Recognition System. Journal of the Ergonomics Society of Korea, 31(4), 551-556. [ Links ]

Kühnel, C., Westermann, T., Hemmert, F., Kratz, S., Müller, A., & Möller, S. (2011, October). I’m home: Defining and evaluating a gesture set for smart-home control. International Journal of Human-Computer Studies, 69(11), 693-704. [ Links ]

Lee, W. J., Huang, C. W., Wu, C. J., Huang, S. T., & Chen, G. D. (2012). The Effects of Using Embodied Interactions to Improve Learning Performance. Proc. 12th International Conference on Advanced Learning Technologies (pp. 557-559 ). IEEE. [ Links ]

Lui, A. K., Ng, V. S., & Chan, C. H. (2013). Gesture-Based Interaction for Seamless Coordination of Presentation Aides in Lecture Streaming. Proc. International Conference on ICT in Teaching and Learning (pp. 108-119). Springer Berlin Heidelberg. [ Links ]

Mehler, A., Lücking, A., & Abrami, G. (2014). WikiNect: Image schemata as a basis of gestural writing for kinetic museum wikis. Universal Access in the Information Society, 14(3), 333-349. [ Links ]

Meng, M., Fallavollita, P., Blum, T., Eck, U., Sandor, C., Weidert, S., Waschke, J., & Navab, N. (2013). Kinect for Interactive AR Anatomy Learning. Proc. International Symposium on Mixed and Augmented Reality (pp. 277-278). IEEE. [ Links ]

Nandi, S., Deb, S., & Sinha, M. (2016). Enhanced Understanding of Education Content Using 3D Depth Vision. Proc. Information Systems Design and Intelligent Applications (pp. 483-490). Springer India. [ Links ]

Panger, G. (2012). Kinect in the Kitchen: Testing Depth Camera Interactions in Practical Home Environments. CHI'12 Extended Abstracts on Human Factors in Computing Systems (pp. 1985-1990 ).Links ]

Piumsomboon, T., Clark, A., Billinghurst, M., & Cockburn, A. (2013). User-Defined Gestures for Augmented Reality. Proc. IFIP Conference on Human-Computer. Interaction (pp. 282-299 ). Springer Berlin Heidelberg. [ Links ]

Plaumann, K., Lehr, D., & Rukzio, E. (2016). Who Has the Force?: Solving Conflicts for Multi User Mid-Air Gestures for TVs. Proc. International Conference on Interactive Experiences for TV and Online Video (pp. 25-29 ). ACM. [ Links ]

Prenksy, M. (2001). Digital natives, digital immigrants. On the Horizon, 9(5), 1-6. [ Links ]

Ren, G., & O'Neill, E. (2013). 3D selection with freehand gesture. Computers & Graphics, 37(3), 101-120. [ Links ]

Senin, P. (December 2008). Dynamic time warping algorithm review. Honolulu, USA: Information and Computer Science Department University of Hawaii at Manoa Honolulu. [ Links ]

Şimşek, S., & Durdu, P. O. (2014). Developing an Interactive Learning Environment with Kinect. Proc. International Conference on Human-Computer Interaction (pp. 150-155 ). Springer International Publishing. [ Links ]

Susi, T., Johannesson, M., & Backlund, P. (2007). Serious Games: An Overview. DiVA. [ Links ]

Tinio, V. L. (2003). ICT in Education. E-Primers. UNDP, New York. [ Links ]

Wachs, J. P., Kölsch, M., Stern, H., & Edan, Y. (2011). Vision-Based Hand-Gesture Applications. Communications of the ACM , 54(2), 60-71. [ Links ]

Recibido: 30 de Julio de 2016; Aprobado: 15 de Noviembre de 2016

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons