Protocolo de evaluación del comportamiento somático y oral a estímulos sonoros en pacientes con Trastornos del Espectro Autista

July 27, 2017 | Autor: D. López De Luise | Categoría: Data Mining, Computational Intelligence, Morphosyntactic Linguistic Wavelets
Share Embed


Descripción

1

Protocolo de evaluación del comportamiento somático y oral a estímulos sonoros en pacientes con Trastornos del Espectro Autista P. Bustamante1, A. Lafalla 1, N. Coria 1, M. Agüero 2, D. López De Luise 2, R. Azor3, C. Párraga 3, j. Moya2, J.L. Cuesta4 1

Gab. Tecnología Médica, Fac. Ing. UNSJ. Av. Lib. San Martín (Oeste) 1109 (J5400ARL). San Juan, Argentina 2 CI2S Lab. Pringles 10- P2 (C1183ADB). Buenos Aires, Argentina 3 Universidad de Mendoza. Boulogne Sur Mer 683 (M5502BZG). Mendoza, Argentina 4 Universidad de Burgos. (09001) Hospital del Rey, s/n. Burgos (Castilla y León), España

Abstract— The goal of this paper is to define a proper audio protocol for ASD patients. As part of the scope sheets collection protocol, a global and a case-based evaluation methodology are presented. There is also a kinetic pattern modeling in relation to sound stimuli precisely defined. Findings here indicate that the proposed protocol is good for proper data collection required to biomechanical and behavioral processing. It also enable to automate certain subtle information usually collected just by expert evaluation. Thereby it is possible to evaluate relevant performance in patients with an automatic system. Keywords— autism, audio, biomechanics, Morphosyntactic Linguistic Wavelets, Autistic Spectrum Disorder I. INTRODUCTION

La definición y diagnóstico del Trastorno del Espectro autista (TEA), es discutida, pero la comunidad suele guiarse de acuerdo al DSM-5 [1]. Allí, se incluye la consideración de alteraciones sociales y comunicativas, manteniéndose el criterio referido a la rigidez mental y del comportamiento. Suelen manifestar una patente dificultad de producción vocal: el lenguaje natural se ve alterado en diferentes grados, llegando en ocasiones a la imposibilidad completa del habla. En el individuo sin discapacidad existe un rango audible que se ve alterado en el TEA, variando desde la hipoacusia a la hiperacusia, que puede ser permanente o transitoria, general o con foco en determinados sonidos. Por ello algunos científicos emplean el procesamiento de sonidos para clasificar si el paciente tiene trastornos TEA [5], aunque no de manera concluyente. El objetivo de este trabajo es presentar un protocolo de evaluación a nivel auditivo con pacientes TEA, desarrollado en el marco del proyecto BIOTECH, no para detectar sino para evaluar los trastornos TEA. Para ello se define un protocolo de interacción con estímulos sonoros, y se evalúan sonidos, observaciones y vídeos por técnicas estadísticas, con relevancia y aporte al proyecto BIOTECH para el procesamiento posterior con técnicas de Computación Lingüísticas basadas en Wavelets Morfosintácticas [2] [3]. El resto de este trabajo se organiza del siguiente modo: La sección I presenta las características básicas del problema y proyecto. La sección II los materiales y métodos, en la sección III, tests y resultados y la sección IV las conclusiones y trabajo a futuro. A. El sonido y la conducta verbal Las señales audibles son señales analógicas acotadas al rango de frecuencias audibles (20Hz a 20kHz) y varía según la persona y la edad (comúnmente denominada presbiacusia). Este rango equivale muy aproximadamente a diez octavas completas (210=1024). Por encima del espectro audible están los ultrasonidos (ondas acústicas de frecuencias superiores a los 20 KHz). Al espectro audible se lo puede subdividir en base a tonos: -Tonos graves (16 Hz a los 256 Hz). -Tonos medios (256 Hz a 2 kHz). -Tonos agudos (2 kHz hasta poco más 16 kHz). Las estrategias para analizar sonidos van desde el clásico método de Fourier, y los espectrogramas (análisis tiempofrecuencia) hasta otros más modernos como el espectro dinámico y wavelet como en [4]. En [5], por ejemplo, varios autores han empleado el pitch (entonación), los formantes, tractos vocales, coeficientes de Mel, operador de energía de Teager, intensidad de la señal [5]. Según la conducta verbal de Skinner, el lenguaje es un subconjunto de las conductas del hombre. Ciertos patrones de sonido caracterizan la comunicación entre pares. Existe un reforzamiento que produce adaptaciones y permite

2014.BIOTECH-CLAIB_v10.doc

2

comportamientos más desarrollados. En el caso de los pacientes TEA, esta comunicación está alterada de manera grave, imposibilitando la correcta vinculación con pares y medio, afectando el aprendizaje por reforzamiento descripto en la teoría de conducta verbal [6]. Por ello las terapias de entrenamiento suelen enseñar explícitamente la asociación entre conductas vocales y elementos del entorno. También enseñan a vincular los estados emocionales con gestos. Hay trabajos que han detectado alteraciones en la audición que podrían empeorar la situación aumentando la percepción de estímulos audibles y el desarrollo del lenguaje vocal [1]. En este trabajo se utilizó un enfoque de estimulación auditiva como estrategia aumentativa de tratamiento [7] y mecanismo de captura de información para BIOTECH. Se diseñó un protocolo de audio para evaluar si existe algún patrón de respuesta que represente a esta patología. B.El proyecto BIOTECH BIOTECH es un proyecto que aplica procesamiento de lenguaje natural por Morphosyntactic Linguistic Wavelets (MLW) [9]. Desarrolla un prototipo inteligente que modeliza automáticamente el proceso de razonamiento lingüístico y su relación con la conducta verbal (sean o no vocales) [10]. Con los pacientes TEA, existe una dificultad adicional debido a que generalmente los sujetos pueden no tener pragmática del lenguaje, por lo que las producciones verbales que se analizan normalmente no son vocales sino manifestaciones visuales y auditivas. Las conductas verbales son ampliamente aceptadas en las recientes terapias con TEA. Las evidencias son crecientes y contundentes al respecto [10]. Hoy en día, los tratamientos para TEA, cubren dietas, fármacos, interacciones tecnológicas, etc. pero muchos requieren aún una investigación que avale su eficacia. Suelen basarse en entrenamientos de habilidades. Por ejemplo Russel [11], y robots tipo Nao [12] mezclan tecnología con entrenamiento. BIOTECH aporta una nueva posibilidad de interactuar y evaluar dichas interacciones con el paciente basándose en manifestaciones visuales y producciones sonoras. A diferencia de otras alternativas, el desarrollo del modelo automático permite la observación de un esquema de comportamiento y posibilita la diferenciación de los casos TEA y el seguimiento de la evolución del paciente con un método computacional basado en las más modernas técnicas de la Computación Lingüística. C. El protocolo de audio El protocolo se compone de los siguientes elementos: -Planilla de observaciones: registra las observaciones del terapeuta durante las sesiones de captura. -Batería de sonidos: definidos con variaciones específicas de frecuencia y tono (pero no de volumen). Cada pista contiene 5 timbres que corresponden a 5 instrumentos distintos: clave, fagot, flautín, violín y violoncelo. Las pistas de sonido son: -Onda original sonando en notas opuestas (pista 1). -Onda normalizada con notas opuestas (pista 2). -Onda con distorsión sonando en notas opuestas (pista 3). -Onda con reverberación en notas opuestas (pista 4). -Onda con ganancia en notas opuestas (pista 5). Nota opuesta es una nota producida por transformación de frecuencia en la emisión del sonido. Dada una nota n (contando 1 para DO), su opuesta será la generada con 12-n (12 es la cantidad de tonos y semitonos en una octava). f ( n o )

440

 12 2

( o  4)  12 ( n  10)

( 1)

Cada timbre dura 2 segundos, y su pausa lo mismo. D. Condiciones de Implementación del protocolo Dado que la persona con TEA tiende a realizar conductas estructuradas y repetitivas, con escasa capacidad a la variación, los especialistas de la Fundación TIPNEA (centro de atención a pacientes con autismo radicado en San Rafael, Mendoza) y del Centro CIEL (centro de atención radicado en España y Argentina) establecieron algunas condiciones que se sumaron a las establecidas por las indicaciones ingenieriles y científicas. Las condiciones son: a) Habitación o sala habitual y familiar para el paciente. b) Evitar toda otra fuente de estimulación visual. c) Evitar interrupciones durante la prueba de audio.

2014.BIOTECH-CLAIB_v10.doc

3

d) e) f) g) h) i) j) k) l)

Procurar la ausencia de otros sonidos ambientales. Utilizar parlantes, computadora, etc. habituales. Repetir las pruebas en horario de mañana y de tarde. Realizar una pausa de unos 5 a 10 minutos entre pistas. Repetir la prueba en tres sesiones consecutivas. Luego espaciar una semana y repetir nuevamente la sesión. Aprovechar el momento de mayor receptividad Que esté presente una persona conocida para el paciente. Luego de presentar las pistas de audio se evaluará cuál es su reacción y evolución respecto a tomas anteriores. Debe registrarse si el niño presenta discapacidad auditiva. Si existe la posibilidad, adjuntar audiometría. II. MATERIALES Y MÉTODOS

En esta sección se describen todos los elementos empleados para los tests y evaluaciones. A. Protocolo El desarrollo del protocolo se basó en el registro de las respuestas del paciente a partir de estímulos audibles para evaluar su receptividad a sonidos. El grupo de investigación desarrolló un protocolo de captura combinando sonidos. Este protocolo fue aplicado a dos pacientes con TEA del laboratorio TIPNEA y a un paciente de la Universidad de Burgos (España). B. Herramientas de software Los sonidos, Wavelets, armónicos y características matemáticas fueron procesados con rutinas Matlab © versión 2013. Los cruces de datos con hallazgos matemáticos y Machine Learning, en WEKA©, Infostat© y SPSS©. Parte de la biomecánica con Kinovea©. C. Herramientas de hardware Se empleó una cámara Panasonic SDR-86, Zoom óptico de 70x, Zoom digital 100x / 3500x, Distancia focal 1.48 104mm, Disco duro 80GB, Estabilizador Óptico de Imagen. También se grabó con un Teléfono Samsung Galaxy S4, sistema operativo Android, grabación de vídeo 1080p@30fps, flash LED, geo-tagging, detección de rostro, foco táctil, estabilizador e imágenes en alto rango dinámico (HDR por sus siglas en inglés), de 2.0 Mpx. Los sonidos fueron grabados y reproducidos en una computadora portátil convencional, dejando la pantalla en negro (INTEL CORE i5 de uso personal, con sistema operativo Windows©). D. Variables Para evaluar la receptividad y reactividad del paciente, se determinaron con anterioridad cuáles serían las posibles respuestas. Estas respuestas fueron descriptas como variables y luego clasificadas en 3 grupos: reactividad verbal, intraverbal y somática. Reactividad verbal: Cantidad de vocales emitidas Veces que movió los labios sin emisión de sonido. Vocales emitidas/movimientos de labios  Frecuencia de emisión de gritos. Reactividad intraverbal:  Frecuencia fundamental  Energía de la señal  Amplitud máxima y mínima de la señal Reactividad somática:  Movimiento de cabeza, expresiones faciales  Movimiento de hombros  Movimiento de extremidades superiores e inferiores  Movimiento de tórax

2014.BIOTECH-CLAIB_v10.doc

6

Por otro lado, las características sobresalientes de cada sesión resultaron similares tanto para la adquisición manual como para el procesamiento digital. El procesamiento de los vídeos con el software Kinovea ©, permitió detectar respuestas sin estímulos, lo cual no fue tenido en cuenta por los terapeutas. Mediante las mismas se pudo relevar información valiosa sobre los movimientos estereotipados de cada paciente y cómo éstos disminuían ante la presencia del estímulo sonoro. Es decir, se percibió que ante la aplicación del estimulo sonoro, tanto en bajo como en alto tono, ambos pacientes reducían su capacidad de respuesta motora, lo cual puede llevar a suponer que incrementaban su nivel de concentración cuando se los estimulaba. IV. CONCLUSIONES Y TRABAJO A FUTURO

Se ha presentado brevemente un extenso protocolo definido para estimulación auditiva aplicable a pacientes TEA. También, detalles relacionados con el procedimiento de captura y evaluación. Se presentó un caso de estudio a fin de mostrar la factibilidad de automatización. Del análisis realizado se ha mostrado que pueden detectarse respuestas estereotipadas de manera sistemática, similares a las que los terapeutas suelen describir: fijación de mirada, cabeceos, movimientos de piernas, palmoteos, etc. La ventaja de la detección sistemática es que puede automatizarse, constituyendo un apoyo a la evaluación del terapeuta y dando pie a futuros estudios que establezcan la relación de dichas conductas verbales con intenciones y sentimientos. Asimismo, posibilita evaluar la distancia entre ambas actitudes y con ello definir el grado de progreso del paciente en su aprendizaje vocal y verbal. Resta como trabajo futuro implementar dicha automatización y métricas de interacción y evolución como soporte al método diagnóstico y seguimiento del paciente

REFERENCIAS 1.DSM-V. Diagnostic and Statistical Manual of mental disorders DSM-5. American Phsychiatric Association. http://www.psych.org/. 2013. 2.López De Luise D., Hisgen D. MLW and Bilingualism. Human-Computer Interaction, and Communicability. 568 – 600. 2013 3.López De Luise D. Morphosyntactic Linguistic Wavelets for Knowledge Management. InTechOpen, 8, 167 -189 . 2012. 4.Alm J., Walker J. Time-Frequency Analysis of Musical Instruments. SIAM R EVIEW Vol. 44, No. 3, pp. 457–476. 2002 5.Ververidis D., Kotropoulos C. Emotional speech recognition. Speech Communication. pp. 1162-1181. 2006. 6.Escuela Para Sordos. Estrategia de adquisición de lenguaje para niños con autismo.www.escuelaparasordos.com/autismo. 2013 7.Leyrevh D. Sistemas aumentativos de comunicación. Dpto. de Orientación San Vicente de Paúl Gijón. 2014 8.Greer D. The integration of speaker and listener responses. The Psychological Record, pp 59, 449–488. 2009 9.López De Luise D., Fernandez Vuelta M., Azor R., Agüero M., Parraga C., López N., Bustamante P., Eugenia Marquez M., Bielli Bondino R., Hisgen D., Fairbairn R., Planes S. ASD: ML perspective for Individual Performance Evaluation. SOFA 2014. 2014. 10.Douglas Greer, D. The Ontogenetic Selection of Verbal Capabilities. Int. journal of psychology and psychological therapy, 8 (3), 363-386. 2008 11.Pranav, D. Meet Russell, a robot that helps autistic children develop social skills. FAST FEED. URL: www.fastcompany.com. 2013 12.Salisbury, D. Humanoid robot helps train children with autism. Research news @ Vanderbit. 2013.

2014.BIOTECH-CLAIB_v10.doc

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.