Aprendizaje interactivo de la arquitectura Maya

May 28, 2017 | Autor: E. Ceh-Varela | Categoría: HCI
Share Embed


Descripción

Aprendizaje interactivo de la arquitectura Maya Edgar Eduardo Ceh Varela1, Gandhi Samuel Hernández Chan1, Carlos Alberto Canto Bonilla1 1

Universidad Tecnológica Metropolitana, Calle 115 (Circuito Colonias Sur) No. 404 Col. Santa Rosa, C.P. 97279 Mérida, Yucatán, México 1 {eduardo.ceh, gandhi.hernandez, carlos.canto}@utmetropolitana.edu.mx

Resumen. Este trabajo presenta el desarrollo de una plataforma tecnológica que hace uso de un dispositivo Kinect. Se realizó la integración de dos módulos, el primero de ellos obtiene y analiza los movimientos de los usuarios y los convierte en comandos. El segundo, despliega los menús y el contenido de cada sección de acuerdo a los gestos realizados por el usuario. Este desarrollo permite interactuar con contenidos multimedia y 3D con la finalidad de aprender de una manera diferente temas relacionados con la arquitectura Maya. Palabras Clave: Kinect, Interacción Hombre-Máquina Arquitectura Maya.

1

Introducción

La Asociación de Maquinaria Computarizada (ACM) [1] define a la Interacción Hombre-Máquina, o Human Computer Interaction (HCI), como “La disciplina encargada del diseño, evaluación e implementación de sistemas computacionales interactivos para uso humano y del estudio de lo que los rodea”. Con esto se busca que los sistemas HCI sean fáciles de aprender en su funcionamiento, tengan un uso eficiente, el tiempo para recordar su funcionamiento sea mínimo, y se busque la satisfacción del usuario al utilizarlo [2]. Gracias a la aparición de dispositivos de interacción para videojuegos, como el Nintendo Wii y el Kinect para Xbox, ahora se están desarrollando aplicaciones que están cambiando la forma en la que nos comunicamos con las computadoras. Estas aplicaciones cuando hacen uso de los dispositivos de videojuegos posibilitan el intercambio tanto de información, acciones y datos, como de sensaciones, intuiciones y nuevas perspectivas entre el usuario y la computadora [3]. El Microsoft Kinect es un dispositivo compuesto por diferentes sensores que permiten a los usuarios utilizar los movimientos de su cuerpo para controlar e interactuar con videojuegos. En el 2010 Microsoft puso a disposición del púbico el SDK (Software Development Kit) de Kinect. De acuerdo a estudios [4, 5] el uso de Kinect puede facilitar y mejorar la enseñanza y el aprendizaje. Esto puede deberse a que al interactuar con contenido multimedia se aprende más rápido y se disfruta más ya que el estudiante tiene el control de este ambiente virtual [6, 7]. En el año 2014 en Mérida Yucatán, en México, se realizó el Festival Internacional de la Cultura Maya (FICMAYA). El tema fue “La arquitectura en el tiempo y el paisaje del Mayab”. La Universidad Tecnológica Metropolitana (UTM) fue invitada a 61

proponer proyectos para presentar en la sede del evento el Museo de la Cultura Maya. Este documento describe la propuesta por parte de la UTM en relación al desarrollo de una plataforma interactiva que permitiera a los asistentes al evento aprender sobre la arquitectura Maya. Se tuvo como principal objetivo el uso de una interfaz de interacción hombre-máquina, o HCI, en donde el diseño de esta interfaz se encuentra centrado en el usuario y en la usabilidad de la plataforma.

2

Método

Se realizó una revisión sistemática de la literatura sobre HCI. De acuerdo con algunos estudios [8, 9] las principales interfaces HCI utilizadas son las destinadas a video juegos, como el Microsoft Kinect, el Nintendo Wii Remote y el Sony PlayStation Move. De estos se escogió para trabajar el Kinect ya que no requiere que el usuario sostenga algún control adicional y además de que se cuenta con el SDK de manera pública. Para el desarrollo de la plataforma interactiva se eligió un modelo de desarrollo de software llamado de prototipo evolutivo [10]. Las fases que integran este modelo consisten en el análisis de los requerimientos, el diseño de un prototipo de solución, la creación del prototipo y finalmente una fase de pruebas. Este tipo de modelo parte de la generación de un prototipo inicial y de acuerdo con las retroalimentaciones resultantes de la fase de pruebas este puede recibir modificaciones incrementales hasta ser liberado. La plataforma consistió en dos módulos, el módulo de captura e interpretación de movimientos y el módulo de despliegue de información. El primero se ejecuta en background y permite capturar los movimientos de las personas para traducir sus gestos en acciones. El Kinect fue la interfaz que permitió la captura de los gestos. Para el desarrollo de este primer módulo se utilizó el lenguaje de programación C#, el Microsoft Kinect SDK y el framework Full Body Integration (FUBI). FUBI es un conjunto de librerías de software para plataforma Windows utilizado para reconocer los gestos y posturas de personas en tiempo real. De esta manera, la información que recibe FUBI viene del sensor de profundidad del Kinect a través de su SDK. Gracias a esta tecnología se pueden distinguir las siguientes categorías de gestos: posturas estáticas, movimientos angulares, combinación de posturas y movimientos, y gestos simbólicos [11]. Se hicieron varias pruebas con los diferentes gestos que forman parte del FUBI. Estos gestos fueron realizados por un grupo de usuarios seleccionados opináticamente, a los que se les pidió seleccionaran de todos los gestos que incluye el framework qué combinación de gestos les permitiría navegar en una página web de manera natural e intuitiva. Estas pruebas se realizaron con el objetivo de determinar cuáles de estos gestos eran los más sencillos de realizar por los usuarios y que permitieran interactuar con la plataforma. Se realizó un mapeo de los gestos a teclas específicas del teclado para que la plataforma pudiera ser utilizada, aun sin contar con un Kinect. Este mapeo de gestos a teclas, así como las acciones correspondientes, se puede apreciar en la figura 1.

62

Figura. 1. Relación de gestos, teclas y acciones a realizar.

El segundo módulo es el que presenta a los usuarios la información de los sitios arquitectónicos Mayas. Este módulo se diseñó en una plataforma web, es en esta parte de la plataforma en donde se presentan imágenes, información, y modelos 3D alusivos a la arquitectura Maya. Los modelos 3D fueron descargados del repositorio de Google Sketchup, y posteriormente se transformaron al estándar abierto Digital Asset Exchange (DAE). Esto permitió tener por cada modelo un archivo XML con sus propiedades, las cuales se manipularon con JavaScript dentro del portal web. Los textos con la información de los diferentes sitios arquitectónicos Mayas fueron obtenidos del sitio Wikipedia. Los idiomas que se utilizaron en la plataforma fueron el español, inglés y francés. Para probar y validar la funcionalidad de la plataforma, así como de su rápida curva de aprendizaje, se realizaron pruebas de usabilidad. Entendiendo como usabilidad el grado con el cual una persona puede aprender, controlar, y entender un sistema [12, 13]. Se realizó una selección no probabilística de personas para probar la plataforma. A estas personas primero se les hizo una demostración de las funcionalidades de la plataforma así como de los gestos que podían realizar, y posteriormente se les pidió que la utilizaran por su cuenta. Cuando finalizaron de interactuar con la plataforma se les aplicó un cuestionario con el objetivo de recolectar sus impresiones y recomendaciones. Se les preguntó sobre la usabilidad de la plataforma y también si esta manera de presentar la información de la arquitectura Maya les permitió aprender más sobre la cultura.

63

3

Resultados

Cuando se ejecutaron ambos módulos, el usuario simplemente se posicionaba dentro del rango de vista del Kinect para que se ejecutara una acción de bienvenida y el despliegue del menú inicial. En la figura 2 se puede observar la interacción entre los dos módulos de la plataforma, en la parte izquierda se encuentra el módulo de despliegue de la información, y en la parte de la derecha el módulo que captura los gestos de los usuarios. Se pueden visualizar los puntos de las partes del cuerpo detectadas por el Kinect y que son las interpretadas por el framework FUBI para desencadenar las acciones de navegación dentro de la plataforma.

Figura 2. Interacción de los dos módulos.

De esta manera, en el menú principal se despliegan dos secciones: Arquitecturas y Fotografías. En la sección de fotografías los usuarios puedes navegar por una galería de imágenes en alta resolución de diversos sitios arquitectónicos Mayas. De manera similar, en la sección de modelos 3D el usuario puede navegar por una galería de construcciones Mayas en 3D, los cuales pueden ser manipulados para su visualización en 360° simplemente con un gestos de la mano, o haciendo acercamientos de los modelos para apreciar mejor las características de cada edificación 3D simplemente acercándose a la pantalla. La visualización de un modelo 3D del castillo de Chichén Itzá se puede apreciar en la figura 3.

64

Figura 3. Modelo 3D del castillo de Chichen Itzá en acercamiento.

En ambas secciones el usuario puede desplegar información adicional relacionada con lo que está observando en ese momento. Pensando en que pudiera ser utilizado por personas de diferentes nacionalidades, se implementó el cambio de idioma para que el texto desplegado pueda ser visto en español, inglés y francés. Como se había planteado en la metodología, se les pidió a 24 personas de un muestreo no probabilístico que utilizaran la plataforma, después de una demostración previa, y en un cuestionario dieran su opinión sobre su experiencia en el uso de la misma. Las edades de los participantes se encontraron entre los 21 a los 39 años. Todos los participantes conocían lo que era un Kinect y ya habían tenido contacto con uno anteriormente aún sin contar ellos con una consola de video Xbox. Todos estuvieron de acuerdo que la navegación por la plataforma era sencilla de utilizar. Al 75% de los usuarios le tomó poco tiempo, entre 20 a 30 segundos, en familiarizarse con los movimientos gestuales, y una vez utilizando la plataforma el 88% indicó que cometió pocos errores (menores a 5). El 75% de los participantes manifestaron que pudieron retomar sin problemas la navegación por la plataforma si habían cometido algún error. En cuanto a la distribución de los contenidos dentro de la plataforma el 25% indicó estar de acuerdo, y el 75% muy de acuerdo en cómo se organizó la información. La presentación de los textos, imágenes y modelos le pareció adecuada al 37% y muy adecuada al 63%. Todos los participantes estuvieron de acuerdo que al interactuar con objetos 3D les permitió sentirse más motivados en conocer y aprender más sobre la arquitectura Maya, que únicamente visualizando fotos o videos.

4

Conclusiones

El desarrollo de interfaces de sistemas de cómputo que permitan maximizar la satisfacción del usuario, al mismo tiempo que minimicen el tiempo que les toma aprender su funcionamiento es tarea del área de HCI. En los últimos años la industria de los videojuegos ha desarrollado interfaces de usuario capaces de utilizar los movimientos corporales para interactuar con los juegos. De entre estas interfaces destaca el Microsoft Kinect, ya que no necesita ningún dispositivo externo para que los usuarios, así como sus gestos, sean reconocidos e identificados. Estas interfaces, de acuerdo a estudios, han permitido el desarrollo de aplicaciones enfocadas a mejorar la enseñanza y el aprendizaje. La UTM desarrolló una plataforma interactiva que 65

permitiría, a los asistentes del Festival Internacional de la Cultura Maya 2014, aprender sobre la arquitectura Maya. Este desarrollo tecnológico tuvo como principal objetivo el uso de una interfaz de interacción hombre-máquina, o HCI. Después de evaluar varios frameworks de interacción con el Kinect, se encontró que el framework FUBI permite utilizar de manera muy sencilla diferentes gestos, y la combinación de estos, para interactuar con cualquier aplicación por medio del SDK de Kinect. Al evaluar la experiencia del usuario luego de utilizar la plataforma se pudo constatar que al permitir interactuar con modelos 3D se puede incentivar a las personas a aprender más sobre un tema determinado. Se pudo observar también que la curva de aprendizaje para el uso de la plataforma fue muy corta, y una vez identificados los gestos y las acciones las personas pudieron interactuar casi sin cometer errores, o si los cometían ellos mismos podían retomar la navegación sin problemas. Como trabajo futuro para la plataforma de la arquitectura Maya se proponen nuevas secciones multimedia, y el desarrollo de retos a manera de juego serio para que los usuarios interactúen y se interesen más sobre el tema. Por otro lado, se explorará el uso de la plataforma desarrollada para ser aplicada en la enseñanza de otros tópicos, o en el control de sistemas por medio de la interfaz interactiva.

Referencias 1. ACM. Asociación de Maquinaria Computarizada (ACM). 2012 [cited; Available from: http://old.sigchi.org/cdg/cdg2.html. 2. Nielsen, J.L., H.:, Prioritizing Web Usability. 2006: Pearson Education. 3. Sosa, M.D., L.:, Interacción Hombre-Computadora en entornos educativos: Propuesta para mejorar la usabilidad y satisfacción del usuario. XII Workshop de Investigadores en Ciencias de la Computación, 2010: p. 754-757. 4. Hsu, H.J., The potential of Kinect in Education. International Journal of Information and Education Technology, 2011. 1(5). 5. Richards-Rissetto, H.R., F.; Agugiaro, G.; Robertsson, J.; von Schwerin, J.; Girardi, G.:. Kinect and 3D GIS in archaeology. in 8th International Conference on Virtual Systems and Multimedia (VSMM). 2012. 6. Hick, S., Benefits of interactive multimedia learning. 1997. 7. Dede, C., Inmersive interdaces for engagement and learning. science 323, 2009: p. 66-69. 8. Avancini, M., Using Kinect to emulate an Interactive Whiteboard, in Facoltà di Scienze Matematiche, Fisiche e Naturali. 2011, UNIVERSITÀ DEGLI STUDI DI TRENTO. 9. Wang, A., Gonzalez-Ibanez, J., Learning Recycling From Playing A Kinect Game. 10.Sami, M. Software Development Life Cycle Models and Methodologies. 2012 [cited; Available from: https://melsatar.wordpress.com/2012/03/15/software-development-lifecycle-models-and-methodologies/. 11. Augsburg, U.d. FUBI - Full Body Interaction Framework. 2011 [cited; Available from: http://www.informatik.uni-augsburg.de/lehrstuehle/hcm/projects/tools/fubi/. 12.Nielsen, J., Usability 101: Introduction to Usability. 2003. 13.Pinelle, D.W., N., Stach, T.:. Heuristic evaluation for games: usability principles for video game design. in CHI ’08: Proceeding of the 26th SIGCHI Conference on Human Factors in Computing Systems. 2009. New York, NY, USA: ACM.

66

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.