Automatización en labores de clasificación: Ayuda al diagnóstico de enfermedades neurodegenerativas que causan trastornos del movimiento

June 24, 2017 | Autor: O. Cabrero Bertram | Categoría: Engineering, Medical Sciences, Data Mining, Medical Education
Share Embed


Descripción

´ UNIVERSIDAD POLITECNICA DE MADRID ´cnica Superior de Ingenier´ıa y Disen ˜ o Industrial Escuela Te

Proyecto Fin de Grado

Automatizaci´ on en labores de clasificaci´ on: ayuda al diagn´ ostico de enfermedades neurodegenerativas que causan trastornos del movimiento.

Autor: Oscar Cabrero Bertram ´ nica y Titulaci´on: Grado en Ingenier´ıa Electro ´ tica Industrial Automa

Tutor: Roberto Gonz´alez Herr´anz Departamento: Electr´onica, Autom´atica e Inform´atica Madrid, julio 2014

´ UNIVERSIDAD POLITECNICA DE MADRID ´cnica Superior de Ingenier´ıa y Disen ˜ o Industrial Escuela Te

Proyecto Fin de Grado

Automatizaci´ on en labores de clasificaci´ on: ayuda al diagn´ ostico de enfermedades neurodegenerativas que causan trastornos del movimiento.

´ nica y Automa ´ tica Titulaci´on: Grado en Ingenier´ıa Electro Industrial Departamento: Electr´onica, Autom´atica e Inform´atica

Fdo: Oscar Cabrero Bertram

Vº Bº Tutor: Roberto Gonz´alez Herr´anz

A mis padres, a mi hermano y a Nuria

‘‘La science a-t-elle promis la bonheur? Je ne crois pas. Elle a promis la verit´e, et la question est de savoir si l’on fera jamais la bonheur avec la verit´e’’ ´ Emile Zola (1840-1902)



AGRADECIMIENTOS



n primer lugar, dedico este trabajo a mi t´ıa Teresa, por haberme acercado a la ciencia y el pensamiento, E por haberme impregnado de optimismo en la vida, y por ense˜ narme a ‘‘no llorar cuando no pueda ver el sol, pues las l´ agrimas no me dejar´ıan ver las estrellas’’. A mis padres, por su irrecompensable esfuerzo continuo por la educaci´on y futuro de sus hijos. Por su dedicaci´ on a tiempo completo en nuestro bienestar, sus sonrisas, ´animos y orgullo incondicional por nosotros. Sin vosotros hoy no podr´ıa estar escribiendo estas palabras. A mi hermano, por ser mi compa˜ nero emocional e intelectual, mi amigo y mi punto de apoyo durante toda la vida. A Nuria, no solo por ense˜ narme, sino demostrarme lo que el zorro le dijo al principito: ‘‘He aqu´ı mi secreto: debes mirar siempre con el coraz´ on, lo importante es invisible a los ojos.’’ Antoine de Saint Exup´ery (1900 - 1944), El principito

A mi profesor, compa˜ nero y amigo, Jes´ us San Mart´ın, por sus ense˜ nanzas y consejos tanto a nivel personal como acad´emico. A mi familia y a mis amigos por comprender y respetar mis ausencias en ´epocas de mucho trabajo. Un agradecimiento especial a todos los pacientes que se ofrecieron voluntarios para realizar las pruebas, pues sin gente como ellos la ciencia no podr´ıa avanzar para acercarnos a unas condiciones de vida mejores. A todas las personas que han participado de una manera o de otra es este proyecto, con especial menci´ on a mi tutor Roberto Gonz´ alez, por hacer posibles los medios para mejorar la vida de las personas que, sin duda, sufren d´ıa a d´ıa los efectos de una enfermedad terriblemente frustrante. Tambi´en de manera general gracias a todas las personas dedicadas a la investigaci´on bajo unas condiciones que, desgraciadamente, no est´ an a la altura de su trabajo. Es por ellos que hoy se pueden hacer operaciones sin apenas riesgos, curar enfermedades antes letales, establecer comunicaciones a trav´es de miles de kil´ ometros uniendo personas, y conseguir que hoy tengamos tant´ısimas facilidades que hace pocos a˜ nos no se pod´ıan ni imaginar. Por u ´ltimo, deseo hacer un notorio agradecimiento a la figura del profesor, cuya importante labor en la calidad de un pa´ıs permanece hoy ‘‘parcialmente’’ enmascarada por una inmerecida subvaloraci´on.

vii



RESUMEN



l Parkinson es una enfermedad neurodegenerativa que provoca temblor en el individuo que lo E padece. Sin embargo, no es la u ´nica enfermedad con estas caracter´ısticas: el temblor esencial y el fisiol´ ogico tambi´en lo son. En este proyecto se muestra un mecanismo de resoluci´on del problema del diagn´ ostico del tipo de temblor de un paciente a partir de los resultados de unas pruebas realizadas por el mismo en presencia de un robot que registra sus trayectorias. El robot registra el movimiento del paciente en la realizaci´on de distintas pruebas pensadas para extraer la informaci´ on que diferencia a unos pacientes de otros: pruebas de tipo est´atico, cin´etico y din´amico. De este movimiento hay que eliminar la parte del propio patron seguido por el paciente y quedarse con la parte m´ as interesante: la componente de temblor. Tras extraer el temblor del movimiento de todos los pacientes en todas las pruebas, se calcular´ an algunos par´ ametros (aqu´ı denominados caracter´ısticas) que pretenden aportar informaci´on valiosa sobre el tipo de temblor del que procede la se˜ nal. Obtenidas todas las caracter´ısticas, se proceder´a a calcular aquellas que sean m´as importantes mediante el an´ alisis de las mismas mediante diferentes t´ecnicas: an´alsis de dispersi´on bivariante, componentes principales, conglomerados y curvas de distribuci´on de estas caracter´ısticas. Adem´ as, se realizar´ a un estudio sobre los vectores at´ıpicos que desv´ıan los valores normales, provocando resultados desacertados. La l´ınea principal de este estudio se centra en el an´alisis de las distribuciones de las caracter´ısticas extra´ıdas del temblor, y se utilizan para calcular las leyes de pertenencia a cada uno de los distintos tipos de paciente que hay. El concepto que subyace en este mecanismo es el mismo que el de la l´ ogica borrosa, y se emplea un mecanismo de ponderaci´on de las leyes de pertenencia mediante el grado de solape de las mismas para calcular la probabilidad total de pertenencia a un conjunto borroso.

arkinson’s is a neurodegenerative desease that causes tremor in those who suffer it. However, it P is not the only desease with these features: essential tremor and physiological tremor also are. In this project a mechanism for solving the problem of diagnosing the type of tremor in a patient is shown, based on the results of some tests made by him in the presence of a robot which records his trajectories.

ix

x

Resumen The robot records the movement of the patient while making some different tests designed to extract valuable information about the differences between patients: static, kinetic and dynamic tests. From this movement the part of the pattern followed by the patient must be removed, and keep the most interesting part: the tremor component. After extracting the tremor from every test from every patient, some parameters (here called characteristics) will be calculated, in order to give rich information about the type of tremor in the signal. Obtained all the characteristics, we will keep the most important ones by analizing them whith several techniques: bivariant scatter analysis, principal components, clustering and probability density functions. Furthermore, we will make a study of atypical values which deviate nominal values, causing misguided results. The main branch of this project is based on the study of the probability density functions of the characteristics obtained from tremor, and are used to calculate the belonging laws to each one of the different patients we work with. The concept underlaying this mechanism is the same as fuzzy logic, and a weigh based mechanism of the belonging laws through the overlay degree of them in order to calculate the total probability of belonging to a fuzzy set.



´INDICE GENERAL



Agradecimientos

VII

Resumen

IX

´ Indices XI ´Indice general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xi ´Indice de figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xv ´Indice de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxi S´ımbolos

XXIII

Acr´ onimos

XXV

1. Estado del arte 1.1. Enfermedades neurodegenerativas que causan trastornos en el movimiento, E.N.T.M. . . 1.1.1. Enfermedad de Parkinson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2. Enfermedad de temblor esencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. El temblor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1. Tipos de temblor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Diagn´ ostico diferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1. Criterios de diagn´ ostico del temblor esencial . . . . . . . . . . . . . . . . . . . . . . 1.3.2. Criterios de diagn´ ostico del temblor parkinsoniano . . . . . . . . . . . . . . . . . . 1.4. T´ecnicas empleadas en anteriores trabajos . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1. Primer estudio: filtrado y primera caracterizaci´on y uso de redes neuronales . . . . 1.4.2. Segundo estudio: clasificaci´on de los pacientes y adici´on de la caracter´ıstica de las discontinuidades. Empleo de redes neuronales . . . . . . . . . . . . . . . . . . . . . 1.4.3. Tercer estudio: an´ alisis de componentes principales y reducci´on del espacio de b´ usqueda. Adici´ on de la caracter´ıstica relacionada con las discontinuidades . . . . 1.4.4. Cuarto estudio: generaci´on de vectores artificiales (P.S.O.) . . . . . . . . . . . . . 1.4.5. Quinto estudio: Encapsulaci´on y definici´on de nuevas caracter´ısticas. Empleo de redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Introducci´ on 2.1. Motivaci´ on y objetivos . . . . . . . . . . . . . . . . . . . 2.2. Proyecci´ on para este trabajo . . . . . . . . . . . . . . . . 2.2.1. T´ecnicas y herramientas mantenidas . . . . . . . 2.2.2. Aportaciones previstas . . . . . . . . . . . . . . . 2.3. Descripci´ on de las herramientas . . . . . . . . . . . . . . 2.3.1. Sistema de adquisici´ on de datos . . . . . . . . . . 2.3.2. Herramientas para el an´alisis de datos . . . . . . 2.4. Descripci´ on de los datos . . . . . . . . . . . . . . . . . . 2.4.1. N´ umero de datos . . . . . . . . . . . . . . . . . . 2.4.2. Pruebas a las que se someti´o a los pacientes . . . 2.5. Proceso general . . . . . . . . . . . . . . . . . . . . . . . 2.6. Eventualidades remarcables en el desarrollo del proyecto

xi

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

1 1 1 2 3 4 4 5 6 6 6 7 7 8 9 13 13 14 14 14 17 17 18 22 23 23 31 34

´ Indice general

xii

3. Base de datos de trayectorias 3.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1. Descripci´ on de los pasos realizados en esta etapa . . . . . 3.2. Adquisici´ on de los datos . . . . . . . . . . . . . . . . . . . . . . . 3.2.1. Escritura en los ficheros . . . . . . . . . . . . . . . . . . . 3.3. Clasificaci´ on de los pacientes . . . . . . . . . . . . . . . . . . . . 3.4. Extracci´ on de los datos de los ficheros . . . . . . . . . . . . . . . 3.4.1. Lectura de los ficheros. Funci´on obtenerDatos()

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

4. Acondicionamiento de la se˜ nal 4.1. Objetivo de esta etapa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1. An´ alisis de los resultados anteriores . . . . . . . . . . . . . . . . . . . . . . 4.1.2. Justificaci´ on y necesidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Estructura de esta etapa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3. Extracci´ on de las trayectorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Filtrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1. Elecci´ on del tipo de filtro . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2. Dise˜ no del filtro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3. Filtrado y creaci´ on de una base de datos con las trayectorias y los espectros y despu´es del filtrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. An´ alisis de las trayectorias y espectros . . . . . . . . . . . . . . . . . . . . . . . . . 4.6. Decisi´ on entre aceptaci´ on o rechazo del filtro . . . . . . . . . . . . . . . . . . . . . 4.6.1. Sobre el dise˜ no del filtro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.2. Sobre el n´ umero de at´ıpicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Caracterizaci´ on del temblor 5.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2. Introducci´ on a las caracteristicas . . . . . . . . . . . . . . . . . . 5.2. C´ alculo por separado de las caracter´ısticas atendiendo al tipo de patron 5.3. Introducci´ on al poliespectro . . . . . . . . . . . . . . . . . . . . . . . . . 5.4. Caracteristicas relacionadas con la PSD . . . . . . . . . . . . . . . . . . 5.4.1. La densidad espectral de potencia (PSD) . . . . . . . . . . . . . 5.4.2. M´etodos de c´ alculo. Selecci´ on . . . . . . . . . . . . . . . . . . . . 5.4.3. Definici´ on de las caracter´ısticas . . . . . . . . . . . . . . . . . . . 5.5. Caracter´ısticas relacionadas con el BIS . . . . . . . . . . . . . . . . . . . 5.5.1. El biespectro (BIS) . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.2. C´ alculo del BIS . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.3. Definici´ on de las caracter´ısticas . . . . . . . . . . . . . . . . . . . 5.6. Caracter´ısticas relacionadas con el TRIS . . . . . . . . . . . . . . . . . . 5.6.1. El triespectro (TRIS) . . . . . . . . . . . . . . . . . . . . . . . . 5.6.2. Definici´ on de las caracter´ısticas . . . . . . . . . . . . . . . . . . . 5.7. Caracter´ısticas inmediatas (INM) . . . . . . . . . . . . . . . . . . . . . . 5.7.1. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.2. Procedimiento de extracci´ on . . . . . . . . . . . . . . . . . . . . . 5.7.3. Porcentaje del temblor . . . . . . . . . . . . . . . . . . . . . . . . 5.7.4. Caracter´ısticas relacionadas con la amplitud . . . . . . . . . . . . 5.7.5. Caracteristicas relacionadas con la frecuencia . . . . . . . . . . . 5.8. Caracter´ısticas de entrop´ıa (ENTR) . . . . . . . . . . . . . . . . . . . . 5.8.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8.2. Entrop´ıa de una se˜ nal . . . . . . . . . . . . . . . . . . . . . . . . 5.8.3. Definici´ on de las caracter´ısticas . . . . . . . . . . . . . . . . . . . 5.9. Funciones utilizadas para la extracci´on de las caracter´ısticas . . . . . . . 5.10. Organizaci´ on de las caracter´ısticas en la base de datos . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . antes . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . .

37 37 37 39 40 40 41 42 47 47 48 48 49 50 50 50 51 53 54 57 57 57 61 61 62 64 65 67 68 68 69 70 73 73 74 75 78 78 79 80 80 81 83 83 84 84 84 84 86 88 88

xiii

6. An´ alisis de las caracter´ısticas 6.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2. Objetivo y necesidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3. Descripci´ on del algoritmo de an´alisis de las caracter´ısticas . . . . . . . . . 6.4. An´ alisis de datos multivariante (A.D.M.) . . . . . . . . . . . . . . . . . . 6.4.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.2. Datos multivariantes . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.3. Criterios de an´ alisis . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.4. Objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.5. Resultados y conclusiones . . . . . . . . . . . . . . . . . . . . . . . 6.5. An´ alisis de componentes principales . . . . . . . . . . . . . . . . . . . . . 6.5.1. Justificaci´ on de la repetici´on . . . . . . . . . . . . . . . . . . . . . 6.5.2. Concepto general . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.3. Metodolog´ıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.4. Criterios de selecci´ on del n´ umero de componentes . . . . . . . . . . 6.5.5. Resultados y conclusiones . . . . . . . . . . . . . . . . . . . . . . . 6.6. An´ alisis de las distribuciones de cada componente . . . . . . . . . . . . . . 6.6.1. Motivaci´ on y objetivos de este estudio . . . . . . . . . . . . . . . . 6.6.2. Metodolog´ıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6.3. Resultados y conclusiones . . . . . . . . . . . . . . . . . . . . . . . 6.7. Eliminaci´ on de vectores at´ıpicos . . . . . . . . . . . . . . . . . . . . . . . . 6.7.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7.2. Implementaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7.3. Criterio de eliminaci´ on por kurtosis . . . . . . . . . . . . . . . . . 6.7.4. Criterio de eliminaci´ on manual . . . . . . . . . . . . . . . . . . . . 6.7.5. Resultados y conclusiones . . . . . . . . . . . . . . . . . . . . . . . 6.8. Aglomeraci´ on (clustering) con algoritmos gen´eticos . . . . . . . . . . . . . 6.8.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.2. Motivaci´ on y necesidad . . . . . . . . . . . . . . . . . . . . . . . . 6.8.3. Los algoritmos gen´eticos . . . . . . . . . . . . . . . . . . . . . . . . 6.8.4. Metodolog´ıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.5. Implementaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.6. Resultados y conclusiones . . . . . . . . . . . . . . . . . . . . . . . 6.9. Generaci´ on de nuevos vectores . . . . . . . . . . . . . . . . . . . . . . . . 6.9.1. Necesidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.9.2. Proposiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.10. Selecci´ on del subespacio en base a los criterios anteriores . . . . . . . . . . 6.11. Separaci´ on de los vectores en vectores de entrenamiento y vectores de test 6.11.1. Necesidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.11.2. Criterio de separaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 6.11.3. Almacenamiento en una base de datos. Estructura de la misma . . 6.12. Generaci´ on de una tabla patr´ on con los par´ametros de las distribuciones .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

93 93 93 94 96 96 96 98 98 98 113 113 113 114 115 115 121 121 121 127 131 131 133 134 134 135 137 137 137 138 139 139 146 147 147 147 149 150 150 150 151 151

7. Clasificaci´ on 7.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2. L´ ogica borrosa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.1. Conjuntos borrosos . . . . . . . . . . . . . . . . . . . . . . 7.2.2. Clasificaci´ on por l´ ogica borrosa . . . . . . . . . . . . . . . 7.3. Clasificaci´ on seg´ un las distribuciones . . . . . . . . . . . . . . . . 7.3.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.2. Algoritmo aplicado para la clasificaci´on por l´ogica borrosa 7.3.3. Metodolog´ıa . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.4. Combinaciones de c´ alculo de error . . . . . . . . . . . . . 7.3.5. Algoritmo de repetici´ on aleatoria del diagn´ostico . . . . . 7.3.6. Resultados y conclusiones . . . . . . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

153 153 153 154 155 158 158 158 160 163 163 164

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

´ Indice general

xiv

8. Conclusiones y trabajos futuros 8.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . 8.1.1. Sobre las t´ecnicas empleadas anteriormente . . . 8.1.2. Sobre las t´ecnicas aportadas . . . . . . . . . . . . 8.2. Trabajos futuros . . . . . . . . . . . . . . . . . . . . . . 8.2.1. Mejorar la caracterizaci´ on . . . . . . . . . . . . . 8.2.2. El problema del aglomeramiento y la clasificaci´on

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . por distancia

. . . . . a

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . conjuntos

. . . . . .

. . . . . .

. . . . . .

. . . . . .

177 177 177 178 179 179 180

Ap´ endice A. Estad´ıstica de orden superior 181 A.1. Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 A.2. Cumulantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Ap´ endice B. An´ alisis multivariante B.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . ´ B.2. Algebra matricial . . . . . . . . . . . . . . . . . . B.2.1. Autovalores y autovectores . . . . . . . . B.2.2. Ra´ız cuadrada de una matriz semidefinida B.3. An´ alisis estad´ıstico . . . . . . . . . . . . . . . . . B.3.1. An´ alisis univariante . . . . . . . . . . . . B.3.2. An´ alisis multivariante . . . . . . . . . . . B.3.3. Estandarizaci´ on multivariante . . . . . . . B.4. Identificaci´ on de at´ıpicos . . . . . . . . . . . . . . B.4.1. Identificaci´ on de at´ıpicos . . . . . . . . . .

. . . . . . . . . . . . . . . positiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Ap´ endice C. Tablas C.1. Tablas relacionadas con los datos . . . . . . . . . . . . . C.2. Notaci´ on para los algoritmos gen´eticos . . . . . . . . . . C.3. Tablas de caracter´ısticas . . . . . . . . . . . . . . . . . . C.4. Matriz de caracter´ısticas (ejemplo de algunas columnas)

. . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

183 183 183 183 184 184 184 185 187 188 188

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

191 191 192 193 194

Ap´ endice D. Figuras 195 D.1. Figuras de las distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 Bibliograf´ıa

211



´INDICE DE FIGURAS



1.1. Errores en el diagn´ ostico por los m´etodos empleados por C. Rubio. En el eje de abscisas se representa el n´ umero de neuronas empleadas. Figura extra´ıda de [Mart´ın, 2002] . . . . 1.2. Esquema de funcionamiento de los P.S.O. . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1. Diagrama de ideas previstas para la realizaci´on de este trabajo . . . . . . . . . . . . . . . 2.2. Ajuste de una poblaci´ on por distintas distribuciones. Como se puede comprobar, la que mejor se ajusta parece ser la normal logar´ıtmica (la poblaci´on se ha generado con n´ umeros aleatorios de acuerdo a una ley noral logar´ıtmica, de ah´ı que sea la que mejor se ajuste). Veremos en el cap´ıtulo ?? el criterio para escoger la que tiene el ajuste ´optimo . . . . . . 2.3. Problema de pertenencia a un conjunto (cluster). El vector magenta se pregunta a qu´e grupo pertenece, pues est´ a a una distancia intermedia de los grupos, pero no dentro de ninguno. 2.4. Esquem´ atico del sistema de adquisici´on Dimeter® (imagen [Barrientos Cruz et al., 2000] y modificada) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Icomo de Matlab® . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6. Captura de pantalla de la herramienta Import Data de Matlab® . . . . . . . . . . . . . 2.7. Captura de pantalla de la herramienta Distribution Fitting Tool de Matlab® . . . . . . 2.8. Captura de pantalla de una de las entradas de la pesta˜ na Plots, concretamente la entrada en la que se han guardado las gr´aficas m´as utilizadas a lo largo del proyecto . . . . . . . . 2.9. Icono de Statgraphics® . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.10. Logos de Bitbucket® (2.10a) y Sourcetree® (2.10b) de Atlassian® y de Git® (2.10c) 2.11. Captura de pantalla del repertorio de Bitbucket® en el que se guarda la evoluci´on del proyecto ‘‘PFG Matlab’’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.12. Captura de pantalla del software Sourcetree® . Como se puede ver, se han creado tres ramas (que a´ un no se hab´ıan unido a la rama principal) . . . . . . . . . . . . . . . . . . . 2.13. Logos de Inkscape® (2.13a), LATEX(2.13b) y de MS Visio® (2.13c) . . . . . . . . . . . . 2.14. Situaci´ on real del paciente y del supervisor con respecto al sistema Dimeter® . El aparato negro es el Phantom. Imagen obtenida en http://www.robcib.etsii.upm.es/images/ stories/projects/old/dimeter1.jpg . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.15. Patr´ on 1. Codo apoyado sobre la mesa y se se˜ nala al centro de la diana con la mano. . . . 2.16. Patr´ on 2. Brazo estirado y mano apuntando al centro de la diana. . . . . . . . . . . . . . 2.17. Patr´ on 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.18. Patr´ on 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.19. Patr´ on 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.20. Patr´ on 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.21. Patr´ on 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.22. Patr´ on 8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.23. Patr´ on 9. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.24. Patr´ on 10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.25. Patr´ on 11. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.26. Patr´ on 12. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.27. Patr´ on 13. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.28. Patr´ on 14. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.29. Patr´ on 15. Es igual que el patr´ on 1 (figura 2.15), pero con una fuerza oponi´endose al reposo del paciente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xv

7 9 15

15 16 17 18 19 19 20 20 20 21 22 22

24 24 25 25 26 26 27 27 28 28 28 29 29 29 30 30

´ Indice general

xvi

2.30. Patr´ on 16. Igual que el patron 3 (figura 2.17), pero con fuerza. . . . . . . . . . . . 2.31. Patr´ on 17. Igual que el patr´ on 16 (figura 2.30), pero aplicando una fuerza distinta. 2.32. Patr´ on 18. Igual que el patron 8 (figura 2.22), pero con fuerza. . . . . . . . . . . . 2.33. Diagrama de flujo general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

31 31 32 33

Diagrama de flujo de la adquisici´ on de los datos . . . . . . . . . . . . . . . . . . . . . . . . Captura de pantalla de la intezfaz de adquisici´on del Dimeter® . . . . . . . . . . . . . . Estructura de los ficheros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Organizaci´ on de una de las bases de datos, concretamente de la base de datos de trayectorias de los enfermos de temblor esencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Capturas de pantalla de la base de datos de las trayectorias de los pacientes de temblor esencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38 39 40

3.1. 3.2. 3.3. 3.4.

4.1. Ejemplo de seguimiento del patr´ on. Las desviaciones de baja frecuencia respecto de la gu´ıa componen la informaci´ on prescindible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Filtro empleado en [Hern´ andez, 2009] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3. Diagrama de flujo del an´ alisis espectral de las trayectorias . . . . . . . . . . . . . . . . . . 4.4. Espectro de la trayectoria en el eje Y de un paciente de Parkinson siguiendo el patron PT3. En gris el espectro tras un filtrado con un filtro de fc = 3Hz y una atenuaci´on de 60 dB en 2 Hz (Butterworth de orden 7) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Diagrama de bloques de un filtrado simple de una se˜ nal temporal [Oppenheim et al., 1989] 4.6. Filtro empleado en este proyecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7. Diagrama de bloques del filtrado completo de una se˜ nal temporal para obtener fase nula . 4.8. Diagrama de la base de datos de temblor esencial generada en la etapa de filtrado . . . . 4.9. Componentes X, Y y Z de la trayectoria correspondiente al patr´on quince realizado por un paciente de Parkinson. Se muestran las originales y filtradas, as´ı como los espectros de las componentes antes y despu´es del filtrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10. Componentes X, Y y Z de la trayectoria correspondiente al patr´on cinco realizado por un paciente de temblor esencial. Se muestran las originales y filtradas, as´ı como los espectros de las componentes antes y despu´es del filtrado . . . . . . . . . . . . . . . . . . . . . . . . 4.11. Componentes X, Y y Z de la trayectoria correspondiente al patr´on dieciocho realizado por un paciente de temblor esencial. Se muestran las originales y filtradas, as´ı como los espectros de las componentes antes y despu´es del filtrado . . . . . . . . . . . . . . . . . . 4.12. Componentes X, Y y Z de la trayectoria correspondiente al patr´on cinco realizado por un paciente sano. Se muestran las originales y filtradas, as´ı como los espectros de las componentes antes y despu´es del filtrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1. 5.2. 5.3. 5.4.

Diagrama de flujo de la caracterizaci´on del temblor . . . . . . . . . . . . . . . . . . . . . . Diagrama de la clasificaci´ on de primer nivel de las caracteristicas . . . . . . . . . . . . . . Diagrama de la organizaci´ on de las caracter´ısticas . . . . . . . . . . . . . . . . . . . . . . . Componentes de la se˜ nal definida por t(t) = 3 sen (2πf · t)+2 sen (2πf · 2t)+sen (2πf · 3t), con f = 10Hz, y el resultado de su suma. . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5. PSD de la se˜ nal definida por t(t) = 3 sen (2πf · t) + 2 sen (2πf · 2t) + sen (2πf · 3t) + n(t), con f = 10Hz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6. Diagrama de bloques de un m´etodo AR, MA y ARMA, dependiendo de H(z) . . . . . . . 5.7. Tipos de distribuciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8. Biespectro de la se˜ nal definida por t(t) = 3 sen (2πf · t) + 2 sen (2πf · 2t) + sen (2πf · 3t) + n(t), con f = 10Hz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.9. Comparaci´ on entre la informaci´ on aportada por el PSD y el BIS . . . . . . . . . . . . . . 5.10. Triespectro de la se˜ nal definida por y = 3 sen (2πf · x) + 2 sen (2πf · 2x) + sen (2πf · 3x) + n(t), con f = 10Hz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.11. Ejemplo de la detecci´ on de ventanas temblorosas. En este ejemplo se han tomado ventanas de 100 muestras. La curva azul corresponde a l eje X filtrado de un paciente de Parkinson en la realizaci´ on del patr´ on PT9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.12. Concatenaci´ on de las ventanas encontradas en la figura 5.11 . . . . . . . . . . . . . . . . . 5.13. Ejemplo de valores de entrop´ıa seg´ un amplitudes de la se˜ nal del temblor. La curva azul corresponde al eje X filtrado de un paciente de Parkinson en la realizaci´on del patr´on PT9 5.14. Serie del temblor e histograma de amplitudes del mismo . . . . . . . . . . . . . . . . . . .

44 45 47 48 49

51 51 52 53 54

55

56

58

59 63 65 66 66 69 69 72 75 76 79

82 82 86 87

xvii

5.15. Esquema de la orgnaizaci´ on de un fichero de matrices de caracteristicas . . . . . . . . . . 5.16. Diagrama SART de la funci´ on de extracci´on de las caracter´ısticas para un conjunto determinado X. En azul se representan las funciones de las cuales salen las caracter´ısticas correspondientes a la clasificaci´on de primer nivel de las caracter´ısticas. . . . . . . . . . .

90

6.1. Diagrama de flujo del an´ alisis de caracter´ısticas . . . . . . . . . . . . . . . . . . . . . . . . 6.2. Diagrama de los casos de estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3. Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas c1 −c10 de los pacientes de temblor esencial. Se superponen los grupos de patrones est´aticos, cin´eticos y din´amicos. En la diagonal se muestra el histograma de los tres conjuntos unidos . . . . . . . . . . . . 6.4. D.D.B.de las caracter´ısticas c12 a c16 del conjunto de los pacientes de temblor esencial. Como se ve, existen grandes dependencias lineales entre las caracter´ısticas doce, trece y diecis´eis, mientras que las caracter´ısticas catorce y quince son muy poco variantes. . . . . 6.5. Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´on, de los pacientes de temblor esencial. Se superponen los grupos de patrones est´aticos, cin´eticos y din´ amicos. En la diagonal se muestra el histograma de los tres conjuntos unidos . . . . . . 6.6. Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´on, de los pacientes de Parkinson. Se superponen los grupos de patrones est´aticos, cin´eticos y din´ amicos. En la diagonal se muestra el histograma de los tres conjuntos unidos . . . . . . 6.7. Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´on, de los pacientes sanos. Se superponen los grupos de patrones est´aticos, cin´eticos y din´amicos. En la diagonal se muestra el histograma de los tres conjuntos unidos . . . . . . . . . . . . . . 6.8. Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´on, en el caso de estudio del conjunto de los patrones est´aticos. Se superponen vectores de temblor esencial, Parkinson y de pacientes sanos. En la diagonal se muestra el histograma de los tres conjuntos unidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.9. Histograma de dispersi´ on bivariante de las treinta y nueve caracter´ısticas originales de todos los pacientes. En rojo se muestran los vectores correspondientes a las caracter´ısticas extra´ıdas de los pacientes de temblor esencial, en verde los vectores de parkinson, y en azul los de los pacientes sanos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.10. Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´on, en el caso de estudio del conjunto de los patrones cin´eticos. Se superponen vectores de temblor esencial, Parkinson y de pacientes sanos. En la diagonal se muestra el histograma de los tres conjuntos unidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.11. Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´on, en el caso de estudio del conjunto de los patrones din´amicos. Se superponen vectores de temblor esencial, Parkinson y de pacientes sanos. En la diagonal se muestra el histograma de los tres conjuntos unidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.12. Ejemplo de reducci´ on de la dimensi´on de un conjunto de datos mediante A.C.P.en la figura 6,12a se muestra el espacio original, y en 6.12b la selecci´on de los dos primeros ejes, correspondientes a los de m´ axima dispersi´on . . . . . . . . . . . . . . . . . . . . . . . . . . 6.13. Estudio de los componentes principales de los pacientes de temblor esencial . . . . . . . . 6.14. Estudio de los componentes principales de los pacientes de Parkinson . . . . . . . . . . . . 6.15. Estudio de los componentes principales de los patrones est´aticos . . . . . . . . . . . . . . 6.16. Estudio de los componentes principales de los patrones cin´eticos . . . . . . . . . . . . . . 6.17. Estudio de los componentes principales de los patrones din´amicos . . . . . . . . . . . . . . 6.18. Ajuste por una distribuci´ on normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.19. Ajuste por una distribuci´ on normal logar´ıtmica (log-normal) . . . . . . . . . . . . . . . . . 6.20. Ajuste por una distribuci´ on exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.21. Ajuste por una distribuci´ on gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.22. Ajuste por una distribuci´ on Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

95 99

91

100

101

102

104

106

107

108

111

112

114 116 117 118 119 120 122 122 123 123 124

xviii

´ Indice general

6.23. Ajuste de una poblaci´ on por distintas funciones de densidad y correspondiente valor del test χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.24. Distribuciones de la caracter´ıstica c11 (S (|bisp|)) . . . . . . . . . . . . . . . . . . . . . . . 6.25. Ejemplo de la necesidad de considerar todas las variables para detectar los at´ıpicos . . . . 6.26. Relaci´ on entre la talla de zapatos y la altura . . . . . . . . . . . . . . . . . . . . . . . . . . 6.27. Distribuciones de la caracter´ıstica c2 tras la limpieza de at´ıpicos para los conjuntos de patrones de tipo est´ atico, cin´etico y din´amico. En rojo temblor esencial, en verde Parkinson y en azul sanos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.28. Diferencia entre una buena y una mala elecci´on de pares de caracter´ısticas de acuerdo al criterio de clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.29. Secuencia de la metodolg´ıa del algoritmo de agrupamiento. En el caso de que el n´ umero de puntos mal catalogados (figura 6.29d) sea muy grande, las caracter´ısticas elegidas no permiten diferenciar bien los grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.30. Secuencia de una simulaci´ on del algoritmo gen´etico con datos sint´eticos. En 6.31a se muestran los grupos originales, y sucesivamente (no necesariamente en el mismo color que en los grupos originales) se muestran las distintas agrupaciones del individuo ´optimo de una generaci´ on determinada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.31. Ejemplo de aplicaci´ on del algoritmo gen´etico sobre datos reales. Como se puede observar, los resultados no son buenos, debido a la estructura de los datos y a que el algoritmo est´ a pensado para otro tipo de estructura . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.32. Generaci´ on de nuevos puntos sint´eticos para una distribuci´on normal. En verde los nuevos datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.33. Histograma de la poblaci´ on original junto con los valores sint´eticos. Como se puede ver, el m´etodo deforma la campana de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.34. Estructura de la base de datos de las matrices de entrenamiento y de test de los pacientes de Parkinson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1. Ejemplo de clasificaci´ on de una persona seg´ un su altura a uno de los tres conjuntos borrosos Bajo, Mediano y Alto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2. Ejemplo de clasificaci´ on de un punto entre varios conjuntos por l´ogica borrosa. . . . . . . 7.3. Uni´ on, intersecci´ on y complemento de conjuntos borrosos . . . . . . . . . . . . . . . . . . 7.4. Diferencia entre intersecci´ on entre tres conjuntos borrosos y el solape entre los mismos . . 7.5. Solape entre A, B y C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6. Diagrama de flujo de la clasificaci´ on y diagn´ostico . . . . . . . . . . . . . . . . . . . . . . 7.7. Idea de flujo de los vectores en el clasificador . . . . . . . . . . . . . . . . . . . . . . . . . 7.8. Errores cometidos en el diagn´ ostico de temblor esencial al intentar diferenciar los vectores de test entre temblor esencial y Parkinson (E = {E, P }) . . . . . . . . . . . . . . . . . . . 7.9. Errores cometidos en el diagn´ ostico de Parkinson al intentar diferenciar los vectores de test entre temblor esencial y Parkinson (E = {E, P }) . . . . . . . . . . . . . . . . . . . . . . . 7.10. Errores cometidos en el diagn´ ostico de pacientes sanos al intentar diferenciar los vectores de test entre temblor esencial y pacientes sanos (E = {E, S}) . . . . . . . . . . . . . . . . 7.11. Errores cometidos en el diagn´ ostico de pacientes de temblor esencial al intentar diferenciar los vectores de test entre temblor esencial y Parkinson considerando los patrones est´aticos por separado (E = {E, P }) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.12. Errores cometidos en el diagn´ ostico de pacientes de temblor esencial al intentar diferenciar los vectores de test entre temblor esencial y pacientes sanos considerando los patrones est´ aticos por separado (E = {E, S}) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.13. Errores cometidos en el diagn´ ostico de pacientes de temblor esencial al intentar diferenciar los vectores de test entre temblor esencial y Parkinson considerando los patrones cin´eticos por separado (E = {E, P }) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.14. Errores cometidos en el diagn´ ostico de pacientes de Parkinson al intentar diferenciar los vectores de test entre temblor esencial y Parkinson considerando los patrones cin´eticos por separado (E = {E, P }) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.15. Errores cometidos en el diagn´ ostico de pacientes de sanos al intentar diferenciar los vectores de test entre temblor esencial y pacientes sanos considerando los patrones cin´eticos por separado (E = {E, S}) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

125 127 132 132

136 138

140

145

147 148 149 151

154 156 156 157 157 159 160 165 166 167

168

168

169

170

171

xix

7.16. Errores cometidos en el diagn´ ostico de pacientes sanos al intentar diferenciar los vectores de test entre Parkinson y pacientes sanos considerando los patrones cin´eticos por separado (E = {P, S}) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.17. Errores cometidos en el diagn´ ostico de pacientes de temblor esencial al intentar diferenciar los vectores de test entre temblor esencial y Parkinson considerando los patrones din´amicos por separado (E = {E, P }) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.18. Errores cometidos en el diagn´ ostico de pacientes de Parkinson al intentar diferenciar los vectores de test entre temblor esencial y Parkinson considerando los patrones din´amicos por separado (E = {E, P }) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.19. Errores cometidos en el diagn´ ostico de pacientes sanos al intentar diferenciar los vectores de test entre temblor esencial y pacientes sanos considerando los patrones din´amicos por separado (E = {E, S}) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.20. Errores cometidos en el diagn´ ostico de pacientes sanos al intentar diferenciar los vectores de test entre Parkinson y pacientes sanos considerando los patrones din´amicos por separado (E = {P, S}) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

172

173

173

174

174

B.1. Relaci´ on entre la talla de zapatos y la altura . . . . . . . . . . . . . . . . . . . . . . . . . . 187 D.1. Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones est´ aticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.2. Distribuciones de probabilidad de las caracter´ısticas 23, 24, 30 y33 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones est´ aticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.3. Distribuciones de probabilidad de las caracter´ısticas 35, 36, 38 y 39 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones est´ aticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.4. Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones cin´eticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.5. Distribuciones de probabilidad de las caracter´ısticas 23, 24, 30 y33 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones cin´eticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.6. Distribuciones de probabilidad de las caracter´ısticas 35, 36, 38 y 39 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones cin´eticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.7. Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones dinamicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.8. Distribuciones de probabilidad de las caracter´ısticas 23, 24, 30 y33 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones din´ amicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.9. Distribuciones de probabilidad de las caracter´ısticas 35, 36, 38 y 39 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones din´ amicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.10.Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta todos los patrones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.11.Distribuciones de probabilidad de las caracter´ısticas 23, 24, 30 y33 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta todos los patrones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.12.Distribuciones de probabilidad de las caracter´ısticas 35, 36, 38 y 39 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta todos los patrones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D.13.Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta el patr´on PT1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

196

197

198

199

200

201

202

203

204

205

206

207

208

xx

´ Indice de figuras D.14.Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta el patr´on PT2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 D.15.Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta el patr´on PT18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210

´INDICE DE TABLAS





1.1. Tipos de temblor. Clasificaci´ on general [Crawford and Zimmerman, 2011] . . . . . . . . . 1.2. Tabla comparativa de las caracter´ısticas diferenciadoras entre la enfermedad de Parkinson y el temblor esencial [Jankovic, 2008] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Tablas de resultados de los m´etodos empleados por Rojo y Guti´errez [P´erez, 2008] . . . . 1.4. Errores cometidos por an´ alisis de componentes principales y sin ´el para cada tipo de ponderaci´ on de los vectores de la red [L´opez, 2006]. . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Errores producidos en los distintos experimentos llevados a cabo por P. M. Valencia [Valencia, 2008] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6. Resultados obtenidos por B. Coca [Hern´andez, 2009] . . . . . . . . . . . . . . . . . . . . .

4

10 10

3.1. Resumen de los datos de las pruebas y de los tipos de pacientes . . . . . . . . . . . . . . .

41

5 8 8

6.1. Tabla de caracter´ısticas seleccionadas a partir del estudio de datos multivariante (descripci´ on multivariante) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 6.2. Caracter´ısticas seleccionadas por an´alisis de distribuciones . . . . . . . . . . . . . . . . . . 128 7.1. Posibles combinaciones de las enfermedades para el diagn´ostico diferencial . . . . . . . . . 163 C.1. C.2. C.3. C.4.

Tablas indicando el n´ umero de pruebas realizadas por cada grupo de pacientes . . Simbolog´ıa empleada para la descripci´on del algoritmo gen´etico . . . . . . . . . . . Caracter´ısticas de los temblores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matriz de caracter´ısticas de una trayectoria descrita por un enfermo de Parkinson

xxi

. . . .

. . . .

. . . .

. . . .

191 192 193 194

S´IMBOLOS





C

Conjunto de vectores de entrenamiento pertenecientes al espacio de caracter´ısticas reducido de dimensi´ on m, C ∈ IRm .

Cb

Conjunto de vectores de entrenamiento pertenecientes al espacio de caracter´ısticas de dimensi´ on p, Cb ∈ IRp .

m4 (P SD)

Momento de orden cuatro del PSD.

m2 (P SD)

Segundo momento del PSD.

m1 (diag|bisp)

Primer momento del biespectro diagonal.

m1 (diag|trisp)

Primer momento del triespectro diagonal.

Sr (diag|trisp)

Suma normalizada de los valores del triespectro diagonal.

m1 (log (diag|bisp)) m´ ax (diag|trisp) S (diag|bisp)

Primer momento del logaritmo del biespectro diagonal. Valor m´ aximo del triespectro diagonal.

Suma de los valores del biespectro diagonal.

S (log (diag|bisp))

Suma de los logaritmos de los valores del biespectro diagonal.

fm´ax (P SD)

Frecuencia a la que ocurre el m´aximo del PSD.

m5 (P SD)

Momento de orden cinco del PSD.

N95,3 % (P SD) S (|bisp|)

N´ umero de muestras del espectro cuyo valor est´a por encima del 9,53 %.

Suma de los valores del biespectro.

m2 (diag|bisp)

Segundo momento del biespectro diagonal.

N0,72 % (P SD)

N´ umero de muestras del espectro cuyo valor es mayor del 0,72 %.

N2,42 % (P SD)

N´ umero de muestras del espectro cuyo valor es mayor del 2,42 %.

S (log (|bisp|))

Suma de los logaritmos de los valores del biespectro.

m1 (P SD)

Primer momento del PSD.

m´ ax (P SD)

Valor m´ aximo del PSD.

m2 (diag|trisp)

Segundo momento del triespectro diagonal.

N5,6·10−6 % (diag|trisp) N´ umero de muestras del triespectro diagonal cuyo valor est´a por encima del 5,6 · 10−6 %. N0,15 % (diag|trisp)

N´ umero de muestras del triespectro diagonal cuyo valor est´a por encima del 0,15 %.

N0,29 % (diag|bisp)

N´ umero de muestras del biespectro diagonal cuyo valor est´a por encima del 0,29 %.

xxiii

Simbolos

xxiv

m5 (diag|trisp) N4,3 % (diag|bisp) m3 (diag|trisp) fs

Momento de orden cinco del biespectro diagonal. N´ umero de muestras del biespectro diagonal cuyo valor est´a por encima del 4,3 %. Momento de orden tres del triespectro diagonal.

Frecuencia de muestreo.

´ ACRONIMOS





A.C.P.

An´ alisis de componentes principales.

A.G.

Algoritmo gen´etico.

BIS

Biespectro.

E.N.T.M.

Enfermedades neurodegenerativas que causan trastornos en el movimiento.

E.P.D.A.

Asociaci´ on Europea de la Enfermedad de Parkinson (European Parkinson Desease Association).

F.L.

L´ ogica borrosa (fuzzy logic).

H.O.S.

Estad´ıstica de orden superior (Higher Order Statistics).

H.O.S.A.

An´ alisis de se˜ nal de orden superior (Higher Order Signal Analysis).

L.V.Q.

Cuantizaci´ on de vectores de aprendizaje (Learning Vector Quantization).

PSD

Densidad del espectro de potencia (power spectrum density).

P.S.O.

Optimizaci´ on por enjambre de part´ıculas (particle swarm optimization).

PT-X-

Patr´ on (va seguido del n´ umero de patr´on: ‘‘PT3’’).

TRIS

Triespectro.

U.P.M.

Universidad Polit´ecnica de Madrid.

V.E.

Vectores de entrenamiento.

V.T.

Vectores de test.

xxv

Cap´ıtulo

•••

1

ESTADO DEL ARTE Es de importancia para quien desee alcanzar una certeza en su investigaci´ on, el saber dudar a tiempo. Arist´ oteles de Estagira (384 a. C. – 322 a. C.)

Resumen Se presenta aqu´ı un breve resumen de la situaci´on actual de las investigaciones relacionadas con el diagn´ ostico diferencial de las enfermedades que causan trastornos en el movimiento. Asimismo, se exponen los hitos conseguidos en esta l´ınea de investigaci´on y una breve descripci´ on de las herramientas empleadas en anteriores trabajos.

1.1.

Enfermedades neurodegenerativas que causan trastornos en el movimiento, E.N.T.M.

Las enfermedades neurodegenerativas se han definido comunmente como: Definici´ on 1. Enfermedad neurodegenerativa [Louis, 2009] ‘‘Las enfermedades neurodegenerativas son enfermedades que comienzan insidiosamente1 , seguidas de un curso gradual y progresivo que puede continuar por muchos a˜ nos, y se caracterizan por la implicaci´ on selectiva de los sistemas anat´ omica y fisiol´ ogicamente relacionados con las neuronas, debido a procesos intr´ınsecos m´ as que a una influencia externa identificable.’’ Se trata, por tanto, de enfermedades cuya causa es, en principio, independiente del entorno o de agentes externos, y est´ a directamente relacionada con la edad. A medida que el individuo envejece, las consecuencias de la enfermedad se van haciendo m´as notorias y provocando m´as incomodidad y reduciendo la calidad de vida de las personas que la sufren. La enfermedad de Parkinson es la segunda enfermedad neurodegenerativa m´as com´ un en el mundo, despu´es de Alzheimer [Rodr´ıguez, 2014], y existen controversias sobre si el temblor esencial es una enfermedad neurodegenerativa [Louis, 2009]. Si no la consideramos como tal, la posici´on del Parkinson se mantiene, pero si comparamos la incidencia entre las dos enfermedades, el temblor esencial es m´as frecuente que el Parkinson (en cuanto a temblor patol´ogico [Crawford and Zimmerman, 2011, Bhidayasiri, 2005]).

1.1.1.

Enfermedad de Parkinson

Descrita por James Parkinson (1755-1824) en 1817, es la enfermedad neurodegenerativa m´as frecuente despu´es del Alzheimer, y se debe principalmente a la p´erdida de c´elulas dopamin´ergicas (sustancia gris), aunque tambi´en afecta a otras estructuras cerebrales provocando s´ıntomas no motores como la demencia, trastornos del sue˜ no o p´erdida del olfato [Rodr´ıguez, 2014]. 1 Insidias:

palabras o acci´ on que envuelven mala intenci´ on (R.A.E.). (Nota de la traducci´ on)

1

2

Cap´ıtulo 1 - Estado del arte

Se trata de un proceso irreversible y progresivo cuyas complicaciones inherentes se han conseguido mejorar, motivo por el cual la esperanza de vida de estas personas ha aumentado. No es raro que en algunos pacientes los s´ıntomas conserven cierta estabilidad durante largos periodos, pero en unos diez o quince a˜ nos el enfermo de Parkinson suele requerir asistencia para la mayor parte de las actividades diarias. Incidencia Como se ver´ a m´ as abajo, el diagn´ ostico definitivo se establece mediante un estudio del historial cl´ınico del pacente y, como no se cuenta con un patron de referencia, por el momento la responsabilidad del diagn´ ostico recae directamente sobre los profesionales de la salud[Garc´ıa et al., 2008]. Los casos nuevos de la enfermedad de Parkinson pueden subestimarse debido a la falta de pericia en el diagn´ ostico cl´ınico [Garc´ıa et al., 2008] (de ah´ı la justificaci´on de investigaciones como la presente). La enfermedad afecta a todos los grupos ´etnicos y a ambos sexos, con predominancia en los varones. ´ La incidencia es menor en Asia y Africa y la frecuencia es mayor en los individuos de raza blanca. El 95 % de los casos son pacientes de m´ as de sesenta a˜ nos, lo que da que pensar sobre si no tiene nada que ver con el v´ınculo familiar[Garc´ıa et al., 2008]. La prevalencia de la enfermedad en la poblaci´on general se estima en un 0.3 %, aunque aumenta hasta el 3 % si tomamos la poblaci´ on de entre 65 y 90 a˜ nos. Solo el 10 % de todos los pacientes presenta la enfermedad antes de los 40 a˜ nos, y esta es una caracter´ıstica especial de los enfermos de Parkinson con antecedentes familiares[Garc´ıa et al., 2008]. Diagn´ ostico de la enfermedad de Parkinson En estados tempranos de la enfermedad el diagn´ostico resulta dif´ıcil, y se ha descrito que existe un margen de error en el diagn´ ostico m´edico de un 5-10 % [Rodr´ıguez, 2014]. Se considera que para diagnosticar definitivamente la enfermedad de Parkinson se necesita [Rodr´ıguez, 2014]: 1. Existencia por un a˜ no o m´ as de temblor en reposo, rigidez y bradicinesia2 . 2. Respuesta a la administraci´ on de levodopa. 3. Temblor de reposo distal de entre 4 y 6 Hz [Jankovic, 2008]. Puesto que este proyecto est´ a destinado al diagn´ostico de la enfermedad, no entraremos en asuntos m´edicos sobre tratamientos.

1.1.2.

Enfermedad de temblor esencial

El temblor esencial es el trastorno del movimiento m´as frecuente en el ser humano, con una prevalencia de 10 a 20 veces superior a la del Parkinson [A. Gironell, ]. Pese a ello, su origen y patog´enesis son desconocidos. En ocasiones se le califica como temblor ‘‘benigno’’, contradiciendo el hecho de que muchos pacientes se encuentran f´ısica y psicol´ ogicamente discapacitados. Alrededor del 50 % de los pacientes de temblor esencial leve no es consciente de su temblor[A. Gironell, ], lo que genera la necesidad de efectuar estudios directos por cl´ınicos expertos. Suele aparecer en la infancia, y degenera progresivamente con la edad [Anouti and Koller, 1995]. No solo se ven afectadas las manos, sino que otras extremidades, como los pies, la cabeza o la voz. Algunas variantes del temblor esencial se muestran en el temblor primario de escritura o en el temblor ortost´ atico, en el que el temblor est´ a presente en las extremidades inferiores al estar de pie, pero desaparece al sentarse o moverse. Esta enfermedad aten´ ua sus s´ıntomas con la ingesta de alcohol, con un efecto que va desde los 30 minutos hasta las varias horas [Anouti and Koller, 1995] Incidencia Los mejores resultados estiman una prevalencia de esta enfermedad en alrededor del 1.2-2 % de los individuos de m´ as de setenta a˜ nos [A. Gironell, ]. No existe una diferencia de g´enero o racial , y su aparici´ on varia mucho en t´erminos de edad [Anouti and Koller, 1995]. El temblor esencial afecta en el 95 % de los casos a las manos, a la cabeza en un 34 % de los casos, a la voz (12 %) y a las extremidades inferiores (20 %)[A. Gironell, ]. 2 Bradicinesia:

lentitud anormal del movimiento. (Diccionario m´ edico de la Universidad de Salamanca)

1.2 - El temblor

3

Diagn´ ostico Los criterios gu´ıa para la identificaci´on del temblor esencial se basan principalmente en que es un temblor de tipo postural, que no de reposo. El temblor postural asociado al temblor postural puede observarse ocasionalmente en pacientes con la enfermedad avanzada y, cuando se da el temblor en reposo, normalmente se trata en realidad de un temblor postural causado por la relajaci´on muscular incompleta de los m´ usculos de las extremidades superiores [A. Gironell, ]. B´ asicamente, se puede identificar un temblor esencial si [A. Gironell, ]: 1. Se trata de un temblor postural bilateral de manos y brazos (pero no temblor en reposo) 2. Hay ausencia de otros signos neurol´ogicos, salvo el fen´omeno ‘‘rueda dentada3 ’’. 3. Puede haber temblor cef´ alico aislado pero sin postura anormal. 4. Historia familiar. 5. Efecto beneficioso sin alcohol.

1.2.

El temblor

Existen varias definiciones de temblor. Generalmente se define como un movimiento r´ıtmico e involuntario, y una definici´ on que puede aglomerar gran parte de ellas es: Definici´ on 2. Temblor El temblor se define como un movimiento m´ as o menos regular, aproximadamente r´ıtmico y sinusoidal de una o m´ as partes del cuerpo [Bhidayasiri, 2005], involuntario [Bhidayasiri, 2005, Anouti and Koller, 1995, Crawford and Zimmerman, 2011], alrededor de un punto o plano en el espacio [Young, 1976], producido por m´ usculos inervados4 antagonistas [Anouti and Koller, 1995]. Se puede a˜ nadir que comunmente su diagn´ostico resulta un reto para los m´edicos, y que la terapia de muchos tipos de temblor depende de un correcto diagn´ostico del mismo [Anouti and Koller, 1995]. El temblor m´ as com´ un en los pacientes que acuden a los m´edicos de cabecera es el temblor fisiol´ ogico [Crawford and Zimmerman, 2011], seguido por el temblor esencial y despu´es el temblor parkinsoniano. El punto en com´ un de todos los temblores es que son m´as frecuentes en edades avanzadas. El temblor puede ser clasificado en dos tipos principales, a saber, el temblor de reposo y el temblor de acci´ on (tabla 1.1). Un temblor ocurre en reposo cuando una extremidad se encuentra relajada y completamente soportada contra la gravedad (como al dejar descansar una mano en un reposabrazos). Este tipo de temblor aumenta con el estr´es o movimiento de otra extremidad [Crawford and Zimmerman, 2011]. Algunos autores [Anouti and Koller, 1995] se refieren al temblor espec´ıfico de tarea al hablar de un temblor presente solo durante la realizaci´on de tareas complejas como escribir o tocar m´ usica. En este proyecto se ha clasificado el temblor en tres grandes tipos: Temblor est´ atico: Se refiere al patron no relacionado con el movimiento, es decir, el temblor de reposo y el temblor de acci´ on postural. Temblor cin´ etico: Referido al temblor de acci´on cin´etico y al temblor espec´ıfico de tarea (ver patrones PT7, PT8, PT9, PT10, PT11 y PT18 en la secci´on 2.4.2, p´ag. 23 para comprobar la complejidad de las tareas) Temblor din´ amico: Referido al temblor de intenci´on y al espec´ıfico de tarea (patr´on PT18). La diferenciaci´ on por esta clasificaci´ on nos dar´a una visi´on del comportamiento de las enfermedades ante distintos tipos de movimientos. No obstante, se ha realizado una calsificaci´on m´as fina de los tipos de patrones de acuerdo con la clasificaci´on detallada de los temblores (veremos que hay dieciocho tipos de patrones distintos, son pruebas para cada tipo de temblor). 3 Fen´ omeno de ‘‘rueda dentada’’: debido a la hiperton´ıa muscular, la movilizaci´ on pasiva de los diversos segmentos de miembro est´ a limitada por una resistencia que cede a sacudidas, evocando la liberaci´ on sucesiva de las muescas de una rueda dentada (diccionario m´ edico) 4 Inervados: dicho de un nervio: alcanzar un o ´rgano o parte del cuerpo. (R.A.E.)

4

Cap´ıtulo 1 - Estado del arte

Tabla 1.1: Tipos de temblor. Clasificaci´ on general [Crawford and Zimmerman, 2011] Tipo de temblor

Descripci´ on

Reposo

Ocurre en una parte del cuerpo relajada y completamente sostenida contra la gravedad (m´ as com´ un en Parkinson, pero puede tambi´en ocurrir en temblor esencial severo)

Acci´ on (postural)

Ocurre cuando una parte del cuerpo est´a mantenida en contra de la gravedad (incluye temblor esencial, fisiol´ogico, cerebelar, dist´onico e inducidos por medicamentos)

Acci´ on (cin´etico)

Ocurre con cualquier forma voluntaria de movimientos (incluye los mismos que el postural, salvo el fisiol´ogico)

Acci´ on (intenci´ on)

Subtipo de temblor cin´etico amplificado al alcanzar un objetivo. Su presencia implica trastornos en el cerebelo o sus v´ıas

1.2.1.

Tipos de temblor

En [Crawford and Zimmerman, 2011, Bhidayasiri, 2005, Anouti and Koller, 1995] se puede encontrar una buena clasificaci´ on de los temblores. Aqu´ı se presenta un breve resumen de las caracter´ısticas m´as importantes de cada uno, aunque este trabajo se centra exclusivamente en el temblor esencial, el fisiol´ogico y el temblor parkinsoniano. Temblor esencial: Es el m´ as com´ un de los temblores patol´ogicos. T´ıpicamente el temblor se presenta en movimientos de acci´ on, posturales y cin´eticos, afectando sobre todo a las manos. Suele ser bilateral con una frecuencia de entre 4 y 8 Hz (existe discrepancia entre autores: algunos [Anouti and Koller, 1995] fijan los l´ımites en 4–8 Hz, mientras que otros como [Bhidayasiri, 2005] lo hacen en 5–12 Hz). Temblor parkinsoniano: El temblor parkinsoniano cl´asico comienza a baja frecuencia, con un movimiento de pill-rolling5 . Se trata del tembor m´as com´ un en reposo [Bhidayasiri, 2005], y se vuelve menos potente en movimiento. Temblor fisiol´ ogico: Se encuentra en las personas normales cuando se activan los m´ usculos. El temblor es t´ıpicamente postural, y suele presentarse entre los 8 y los 12 Hz. Temblor cerebeloso: T´ıpcamente inferior a los 5 Hz, suele tener naturaleza cin´etica y suele afectar a la cabeza y a la parte superior del cuerpo [Bhidayasiri, 2005]. Suele ser causado por esclerosis m´ ultiple con placas cerebelares, apoplej´ıas (derrames cerebrales) o tumores cerebrales. Otros tipos de temblor: Existen m´ as variedades de temblor que en este trabajo no son consideradas, como el temblor psicog´enico, el temblor dist´onico, la enfermedad de Wilson o los inducidos por medicamentos. Todos estos temblores tienen una incidencia menor en la poblaci´on que la enfermedad de Parkinson, el temblor esencial o el temblor fisiol´ogico.

1.3.

Diagn´ ostico diferencial

El objetivo de este trabajo es el de encontrar, tal y como lo llama [Garc´ıa et al., 2008], un ‘‘marcador bioqu´ımico accesible o un cambio estructural o funcional que pueda advertirse de manera inequ´ıvoca con los diferentes m´etodos hoy disponibles’’, es decir, un patr´on de referencia. El hecho de que toda la responsabilidad del diagn´ositico recaiga u ´nicamente sobre el m´edico especialista supone un riesgo que puede tener consecuencias tan graves como el contradiagn´ostico. Por ello, la creaci´ on de herramientas complementarias al diagn´ostico m´edico pueden ayudar al atino del mismo por m´etodos matem´ aticos e ingenieriles. 5 Pill-rolling:

del ingl´ es, se refiere a un movimiento de fricci´ on de los dedos pulgar e ´ındice, como si se estuviera volteando o girando una pastilla (pill en ingl´ es). (Nota de la traducci´ on)

1.3 - Diagn´ ostico diferencial

5

Los efectos del contradiagn´ ostico pueden ser graves. Por ejemplo, si no se trata la enfermedad de Parkinson, por considerarse que el paciente est´a sano, puede suponer la incapacitaci´on para realizar tareas como escribir a ordenador o manejar maquinaria. Incluso, fuera del ´ambito mec´anico, el paciente puede sufrir depresi´ on, p´erdida de autoestima y falta de sue˜ no. Los beneficios de un tratamiento temprano suponen el reemplazo de la dopamina ausente en el paciente (la sustancia qu´ımica producida en el cerebro para controlar los musculos y el movimiento) mediante la ingesta de medicamentos a tal efecto [EPDA, ]. Un tratamiento temprano suponen un diagn´ostico temprano, por de ah´ı la importancia del diagn´ostico y del trabajo realizado alrededor de esta l´ınea de investigaci´ on, tanto en medicina como en otras ciencias. Los m´etodos desarrollados hasta ahora han arrojado informaci´on t´ecnica muy valiosa que se tendr´ a en cuenta en este proyecto. Esta informaci´ on est´a relacionada con las caracteristicas de los temblores esencial y parkinsoniano, as´ı como la incidencia del temblor dependiendo de los tipos de movimiento que se realicen. En la tabla 1.2 se puede ver una comparativa de las caracter´ısticas e incidencias de los temblores esencial y de Parkinson. Tabla 1.2: Tabla comparativa de las caracter´ısticas diferenciadoras entre la enfermedad de Parkinson y el temblor esencial [Jankovic, 2008] Caracter´ıstica del temblor

Parkinson

Temblor Esencial

Edad de comienzo

55–75

10–80

Frecuencia del temblor (Hz)

4–6

5–10

Caracter´ısticas del temblor

Supinaci´on–pronaci´on

Flexi´on–extensi´on

Comportamiento en reposo

Aumenta

Disminuye

Comportamiento con la acci´ on

Disminuye

Aumenta

Comportamiento en concentraci´ on

Disminuye

Aumenta

Comportamiento al escribir

Disminuye

Aumenta

Comportamiento al andar

Aumenta

Disminuye

Comportamiento al ingerir alcohol



Disminuye

Temblor postural

Incipiente (d´ebil)

Sin latencia

Temblor cin´etico



S´ı

Temblor de miembros

Asim´etrico

Sim´etrico

1.3.1.

Criterios de diagn´ ostico del temblor esencial

Los estudios [Louis et al., 1998] realizados para caracterizar el temblor esencial han arrojado datos relacionados con la edad de de los pacientes, en la que la media estaba en 76 a˜ nos, sobre una poblaci´ on de 36 individuos diagnosticados definitivamente como temblor esencial. El 42 % de esta muestra eran hombres. Como se ha indicado anteriormente, el temblor esencial presenta el temblor a unos 5–10Hz, no est´ a pr´ acticamente presente en reposo, y su potencia aumenta con los movimientos de acci´on y posturales. Por ello, ser´ a interesante la caracterizaci´on del temblor de esencial en base a los patrones relacionados con este tipo de movimiento, sobre todo a la hora de comparar los resultados con los obtenidos con el temblor parkinsoniano.

6

Cap´ıtulo 1 - Estado del arte

Como se puede ver en la tabla 1.2, el temblor esencial aumenta con la acci´on, con la concentraci´on y al escribir. Por ello, tendr´ıa sentido que en las pruebas m´as complejas se acent´ uen las caracter´ısticas relacionadas con la potencia del temblor. El comportamiento de los s´ıntomas de esta enfermedad ante la ingesta de alcohol y al andar no se han podido medir con las t´ecnicas empleadas en esta l´ınea de investigaci´ on.

1.3.2.

Criterios de diagn´ ostico del temblor parkinsoniano

El temblor de Parkinson est´ a caracterizado por ser un temblor de reposo. Aumenta con el movimiento y la intenci´ on, y disminuye con el mantenimiento de la postura (ver tabla 1.2). La brdicinesia es una caracter´ıstica importante de esta enfermedad. Consiste en la realizaci´on lenta de los movimientos de la vida cotidiana y movimientos de tiempo de reacci´on [Jankovic, 2008]. Tambi´en provoca movimientos espont´ aneos y el balanceo ligero del brazo al andar. El temblor es asim´etrico, es decir, no tiene por qu´e presentarse de la misma manera y con la misma intensidad en cada una de las manos. Ser´ a interesante el an´ alisis de los patrones relacionados con el reposo y las diferencias que ´estos presentan con los patrones cin´eticos y din´ amicos, as´ı como las diferencias que se presentan en relaci´on al temblor esencial.

1.4.

T´ ecnicas empleadas en anteriores trabajos

No se habr´ıa llegado hasta este punto en esta l´ınea de investigaci´on sin el trabajo de compa˜ neros, tanto de fin de carrera como de fin de m´ aster. Por ello, y por la importancia de sus resultados, en este apartado se describen brevemente las t´ecnicas y resultados obtenidos anteriormente, con el fin de crear una visi´ on espec´ıfica del estado del arte en el diagn´ostico del temblor por m´etodos de inteligencia artificial y clasificadores autom´ aticos. Siguiendo un orden cronol´ogico, se comienza por la patente [Barrientos Cruz et al., 2000] del sistema Dimeter® . Con ella, se establecen las bases y las pruebas a las que ser´ıan sometidos los pacientes, creando las hip´otesis sobre la naturaleza del temblor en relaci´on con el tipo de movimiento que posteriormente deber´ıan ser confirmadas mediante el procesamiento de las se˜ nales registradas. Asimismo, se trat´ o de crear un conjunto de patrones suficientemente grande y variado, con el fin de tener una amplia visi´ on de las enfermedades en cuanto a los s´ıntomas mec´anicos del temblor en las extremidades superiores. Tras la patente del Dimeter® se entr´ o en la etapa de procesamiento de la se˜ nal, y es aqu´ı donde los trabajos de fin de carrera y fin de master pasan a un primer plano. A continuaci´on se describen (brevemente) sus principales aportaciones.

1.4.1.

Primer estudio: filtrado y primera caracterizaci´ on y uso de redes neuronales

Este proyecto de fin de carrera realizado por Carlos Rubio Mart´ın y presentado en octubre de 2002 [Mart´ın, 2002], se realiz´ o en primer lugar un filtrado de las series temporales mediante un filtro digital paso alto. Se definieron las primeras veintis´eis caracter´ısticas, relacionadas con estad´ıstica de segundo orden y de orden superior (H.O.S.), que describir´ıan el temblor. Obtenidas las caracteristicas, se realizaron tres pruebas en las que se fueron variando el n´ umero de neuronas, buscando siempre reducir el error. En la primera de las pruebas se emplearon las caracteristicas del espectro de potencia (PSD), es decir, las nueve primeras caracteristicas (v´ease el cap´ıtulo 5, p´ag. 61), en la que se obtuvieron los resultados de la figura 1.1 Como se puede observar, en esta primera prueba se tiene un error medio en el diagn´ostico de temblor esencial muy alto (en torno al 82 %). El error en el diagn´ostico del Parkinson no es m´as aceptable (un 37 %), y los mejor diferenciados son los pacientes sanos (un 6.8 % de error). El error medio de diagn´ostico entre los tres ronda el 40 %. Seguidamente se pas´ o a una segunda prueba en la que se empleaban las caracteristicas relacionadas con los poliespectros (caracter´ısticas de la 10 a la 26). En este caso no se mejor´o el resultado del error medio. Finalmente se juntaron todas las caracteristicas, obteni´endose un error medio del 43 %. Los resultados de Rubio muestran que las caracteristicas relacionadas directamente con el espectro de la se˜ nal desprenden mejores resultados que las caracteristicas de mayor orden. Veremos en este trabajo c´omo con otro m´etodo

1.4 - T´ ecnicas empleadas en anteriores trabajos

7

Errores en el diagn´ ostico de Esencial vs. Parkinson vs. Sanos

Porcentaje de error en el diagn´ostico

100 Error de T. Esencial 82.05 % error medio en T. Esencial Error de Parkinson 37.3 % Error medio en Parkinson Error de Sanos 6.8 % Error medio en Sanos Error medio por neuronas 42.05 % Error medio global

80

60

40

20

0

1

2

3

4

5

6

7

8

9 10 11 12 13 N´ umero de neuronas

14

15

16

17

18

19

20

Figura 1.1: Errores en el diagn´ ostico por los m´etodos empleados por C. Rubio. En el eje de abscisas se representa el n´ umero de neuronas empleadas. Figura extra´ıda de [Mart´ın, 2002]

de tratamiento, las caracteristicas de orden superior pueden ayudarnos a obtener menos error en el diagn´ ostico.

1.4.2.

Segundo estudio: clasificaci´ on de los pacientes y adici´ on de la caracter´ıstica de las discontinuidades. Empleo de redes neuronales

Tras el trabajo de C. Rubio, P. Rojo y C. Guti´errez trataron de clasificar a los pacientes sanos (aquellos que padecen temblor fisiol´ ogico), pacientes enfermos y pacientes de temblor esencial. A˜ nadieron una nueva caracter´ıstica al conjunto de 26. Esta nueva caracter´ıstica se refiere a las discontinuidades del temblor en las se˜ nales temporales. En este trabajo se marcaron las primeras pautas en cuanto a las condiciones de entrenamiento y simulaci´ on o test (tanto por ciento de los vectores utilizados, entre otras). Esto ayud´o a fijar un punto de referencia sobre la metodolg´ıa a seguir en la l´ınea de investigaci´on, y desde ello todos hemos seguido estas pautas de separaci´ on de los vectores en dos subconjuntos de entrenamiento y test. En su trabajo se realizan dos m´etodos. En el primero se entrenar´an las redes con vectores no entrenados, mientras que la segunda (y en esto se basa la metodolog´ıa seguida en este proyecto) en la que se clasificar´ an los vectores de acuerdo a los patrones. Esta segunda metodolog´ıa supuso un gran avance en cuanto a t´ecnica y resultados, pues permitieron ayudar a demostrar las hip´otesis de partida en las que se establec´ıa que deber´ıa haber alguna diferencia en el temblor relacionada con el tipo de movimiento de las extremidades (tipo de patr´ on seguido). Los resultados de estos autores referidos a esta segunda vertiente de su investigaci´ on se muestran en las tablas 1.3a y 1.3b.

1.4.3.

Tercer estudio: an´ alisis de componentes principales y reducci´ on del espacio de b´ usqueda. Adici´ on de la caracter´ıstica relacionada con las discontinuidades

El trabajo realizado por J. M. Ram´on [L´opez, 2006] se dirigieron los esfuerzos en reducir el espacio de b´ usqueda para eliminar aquellas caracter´ısticas irrelevantes en cuanto a la diferenciaci´on. Para ello se utiliz´ o un m´etodo innovador basado en el an´alisis multivariante de datos, denominado An´alisis de Componentes Principales, A.C.P.. Esta t´ecnica es empleada en el presente proyecto para comprobar por otra v´ıa cu´ antas son las componentes necesarias para explicar la mayor parte de la informaci´on.

8

Cap´ıtulo 1 - Estado del arte

Tabla 1.3: Tablas de resultados de los m´etodos empleados por Rojo y Guti´errez [P´erez, 2008] on de patro(a) Errores cometidos por diferenciaci´ on de patrones al (b) Errores cometidos por diferenciaci´ ostico diferencial entre pacienrealizar diagn´ ostico diferencial entre pacientes de temblor nes al realizar diagn´ tes de temblor esencial y parkinsoniano patol´ ogico (todos los enfermos) y sanos

PatronesV.E.

V.T.

Error en simulaci´ on

Patrones VE

VT

Error en simulaci´ on

8

22

5

6,25

3

14

3

28,75

9

19

4

16,25

6

14

3

15

16

21

5

14,167

8

12

3

36,25

18

21

5

30,833

6–7

16

2

16,25

5–8

45

10

14,167

6–11

30

4

19,375

5–9

42

9

20,75

7–11

16

2

7,5

8–9

42

9

21

8–17

21

4

25

9–13

39

9

18,125

10–11

28

6

29,375

9–16

40

9

32,375

11–12

15

3

12,5

13–18

42

9

27

11–16

26

6

21,25

15–16

43

10

32,708

15–16

26

6

20,625

16–18

42

10

34,375

En este trabajo se buscaba mediante dis- Tabla 1.4: Errores cometidos por an´ alisis de componentes tintas pruebas encontrar las mejores carac- principales y sin ´el para cada tipo de ponderaci´ on de los ter´ısticas, o proyecciones de ellas en alg´ un vectores de la red [L´ opez, 2006]. subespacio, con el fin de encontrar la combinaci´ on de ellas que diera mejores resultados Errores en el diagn´ ostico. medios Estudio ACP Los errores medios obtenidos en este tra( %) bajo con y sin an´ alisis de componentes principales se muestran en la tabla 1.4, en la que Suma absoluta Si 13–20 se calculan los errores con diferentes m´etodos de ponderaci´ on de los vectores. ConcreSuma absoluta No 20–30 tamente para el estudio de ponderaci´ on de Suma absoluta sin frecuencia Si 18–25 media geom´etrica, los mejores resultados se obtienen con las caracter´ısticas 5, 6, 7, 8, 9 Suma absoluta sin frecuencia No 20–31 y 10 si se aplica el A.C.P.. Sin embargo, para este tipo de ponderaci´ on, si no se aplica Media geom´etrica Si 14–27 el A.C.P., es mejor tomar las caracter´ısticas Media geom´etrica No 22–44 17, 18, 19 y 20. Es importante remarcar que gracias a esDistancia eucl´ıdea Si 18–25 te proyecto se encontr´ o la proporci´ on ´ optima Distancia eucl´ıdea No 23–37 entre vectores de entrenamiento y vectores de test, dando como resultado que la mejor proporci´ on es 80 % y 20 %, respectivamente.

1.4.4.

Cuarto estudio: generaci´ on de vectores artificiales (P.S.O.)

En este proyecto, Pablo Mart´ınez Valencia buscaba generar pacientes artificiales con los que entrenar la red, para luego simularla con los vectores reales extra´ıdos de los patrones. La t´ecnica empleada para generar vectores sint´eticos se conoce como optimizaci´on por enjambre de part´ıculas, e imita el comporta-

1.4 - T´ ecnicas empleadas en anteriores trabajos

9

miento de las grandes concentraciones de individuos, como las colonias de abejas o bancos de peces, para encontrar comida. Resumidamente, la t´ecnica del P.S.O. consiste en encontrar grupos densos en un espacio a priori desconocido. Las abejas, en su labor exploratoria, conocen las zonas visitadas y la concentraci´on de flores que hay en cada una de ellas, as´ı como las concentraciones de los lugares visitados por sus compa˜ neras gracias a alg´ un mecanismo de comunicaci´on. Esto las permite hacer modificaIteración 0 Iteración N ciones continuas de su trayectoria (veloFigura 1.2: Esquema de funcionamiento de los P.S.O. cidad) para encontrar las zonas de mayor densidad de flores. Cuando todas las abejas se ven sobrevolando la misma zona, son incapaces de salir a explorar nuevas zonas posoblemente m´ as densas (problema de ´ optimos locales que se resuelve con algunas variaciones respecto del algoritmo de P.S.O. simple). Como en todo algoritmo de optimizaci´on, se ha de seleccionar una funci´on de fitness. La funci´ on de fitness se seleccion´ o de forma que la posici´on de una part´ıcula fuera mejor que otra si el radio necesario para incluir al 80 % de los pacientes era menor que el de otra part´ıcula sujeta a la comparaci´on. Los errores producidos tanto en la simulaci´ on del diagn´ostico como en la comprobaci´on del m´etodo demuestran la buena elecci´ on de esta funci´ on de fitness. Se realizaron varios experimentos destinados a la clasificaci´on de pacientes de Parkinson y temblor esencial, sin tener en cuenta los sanos. Primer experimento: Se parte de los pacientes de Parkinson y temblor esencial. Se generaron 108 vectores de Parkinson y 28 de esencial que supondr´ıan el 80 % restante de cada uno, teniendo en cuenta que los pacientes reales son el otro 20 %. Se combinaron todos los vectores y se extrajeron aleatoriamente en la misma proporci´on para simular los diagn´osticos. Segundo experimento: Igual que en el primer experimento, salvo que esta vez se emplearon los vectores sint´eticos para entrenar la red y los reales para la simulaci´on del diagn´ostico. Tercer experimento: Se calcularon tantos vectores sint´eticos para completar el 100 % considerando que los vectores reales supon´ıan el 50 %. Se aleatoriz´o el conjunto y se entren´o la red con el 50 %, dejando el resto para el test. Cuarto experimento: Igual que el tercer experimento, pero empleando los sint´eticos para entrenar y los reales para simular el diagn´ ostico. En la tabla ?? se muestran los errores producidos en cada uno de los experimentos.

1.4.5.

Quinto estudio: Encapsulaci´ on y definici´ on de nuevas caracter´ısticas. Empleo de redes neuronales

En el quinto trabajo, Benito Coca Hern´andez [Hern´andez, 2009] mantuvo las redes neuronales del tipo L.V.Q. por su efectividad, el uso de dos redes neuronales, separando primero individuos enfermos y sanos y, despu´es, Parkinson y no Parkinson. Tambi´en mantuvo la relaci´on 80–20 % para el entrenamiento y la simulaci´ on del diagn´ ostico, y de igual manera que P. M. Valencia, gener´o vectores sint´eticos mediante una t´ecnica distinta a la de P.S.O., pues supuso que era demasiado desproporcionado aplicar todo el algoritmo6 , aleatorizando el conjunto y tomando el 80 % para entrenar, y el resto para simular. Respecto de sus aportaciones hay que destacar la creaci´on de ocho nuevas caracteristicas relacionadas directamente con el temblor, de forma m´as tangible que las estad´ısticas de alto orden. 6 En

su lugar cre´ o vectores sint´ eticos bas´ andose en vectores reales y sum´ andoles un ruido.

10

Cap´ıtulo 1 - Estado del arte

Tabla 1.5: Errores producidos en los distintos experimentos llevados a cabo por P. M. Valencia [Valencia, 2008] Experimento 1

Experimento 2

Experimento 3

Experimento 4

Patr´ on

Caract.

Error ( %)

Caract.

Error ( %)

Caract.

Error ( %)

Caract.

Error ( %)

2

20

2,78

21

4,47

21

12,96

20

4,47

3

20

4,71

3

9,65

20

4,18

15

26,28

5

17

1,85

17

2,23

17

2,98

17

7,4

6

3

2,35

3

14,39

1

16,67

3

9,61

8

17

4,16

2

7,41

2

7,41

1

37,56

10

4

2,78

17

4,47

1

4,43

8

14,81

11

11

3,72

11

4,4

11

2,94

11

12,17

13

3

1,04

1

1,67

2

3,33

3

20,83

15

2

1,8

3

2,98

17

2,98

3

5,5

16

11

303

15

4,64

11

5,39

15

12,17

18

10

1,9

2

7,689

1

6,06

17

16,66

Medias

30,00

5,82

6,30

Estas caracteristicas han sido incluidas en Tabla 1.6: Resultados el presente trabajo, debido a los buenos re- [Hern´ andez, 2009] sultados que se obtuvieron co ellas. Para ver la definici´ on de estas caracter´ısticas, v´ease el Cap´ıtulo de cap´ıtulo 5, p´ ag. 61. resultados Tambi´en transform´ o las matrices de datos en vectores para su aplicaci´ on en las redes, y I se cambi´ o la t´ecnica de A.C.P. por el uso u ´nicamente de las caracteristicas definidas por ´el II mismo. III Adem´ as elabor´ o un juego de funciones que encapsulaban la complejidad del proyecIV to, con la intenci´ on de mejorar y sintetizar los trabajos anteriores. V Entre otras cosas, tambi´en busc´ o nuevos VI m´etodos para inicializar los pesos de los vectores de la red neuronal. VII Las fases en las que B. Coca divid´ıa su VIII proyecto son, de manera muy resumida, las siguientes: IX Primera fase: Encontrar las caracter´ısticas que tuvieran una menor dispersi´ on relativa, con el fin de encontrar las m´ as adecuadas para entrenar la red L.V.Q.

15,223

obtenidos

por

B.

Coca

Error promedio ( %) 10,65 5,98 18 4,35 5,5 9,88 1,23 3,15 34,17

X

11,02

XI

13,1

XII

13,13

Segunda fase: Teniendo en cuenta que no XIII 29,88 solo cuenta la dispersi´ on de cada grupo, sino lo separados que est´en para poder hacer una buena diferenciaci´ on (clustering), se pas´ o a entrenar la red con los valores de las dispersiones relativas de cada caracteristica. As´ı, cada paciente tendr´ıa asociado un vector que ser´ıa la entrada a la red. Las caracteristicas

1.4 - T´ ecnicas empleadas en anteriores trabajos

11

empleadas en estas fases fueron las 28 descritas en proyectos anteriores. Tercera fase: Aqu´ı es cuando se crearon las caracteristicas que permitir´ıan no solo clasificar, sino tambi´en cuantificar el estado de la enfermedad, emple´andose, como antes, las dispersiones relativas de estas caracteristicas como entrada a la red. Realmente, la gran diferencia con respecto a las fases anteriores reside en que se usaron diferentes combinaciones de patrones para calcular estas medias y dispersiones. Se emple´ o el criterio de la distancia eucl´ıdea como diferenciador entre un buen y un mal clustering. Cuarta y quinta fase: Se buscaron nuevos criterioe para realizar la diferenciaci´on de grupos de pacientes. As´ı surgieron el criterio de los intervalos y el criterio de las esferas. Etapa final: Combinaci´ on entre juegos de pacientes artificiales y entrenamiento de las redes con ellos, mientras que la simulaci´ on se realizaba con pacientes (vectores) reales. En la tabla 1.6 se pueden ver trece ‘‘cap´ıtulos de resultados’’, que se corresponden a las diferentes maneras de combinar el uso de los vectores artificiales, relaciones de entrenamiento, agrupaciones de pacientes y combinaciones de patrones. V´ ayase a la referencia para m´as informaci´on [Hern´andez, 2009].

12

Cap´ıtulo 1 - Estado del arte

Cap´ıtulo

•••

2

´ INTRODUCCION La genialidad: 1 % de inspiraci´ on, 99 % de transpiraci´ on. Thomas A. Edisson (1847 - 1931)

Resumen Se presenta la estructura general de la metodolg´ıa empleada, se apuntan algunas notas que hay que considerar a la hora de valorar los datos y los resultados, se describen de las herramientas empleadas, la estructura y tipo de datos con los que se ha trabajado, y se explican los tipos de pruebas a las que se someti´o a los pacientes.

2.1.

Motivaci´ on y objetivos

Este es el sexto de los proyectos realizados por alumnos de la U.P.M. en relaci´on al diagn´ostico de enfermedades relacionadas con trastornos del movimiento. Se han empleado diversas t´ecnicas de inteligencia artificial, optimizaci´ on por enjambre de part´ıculas (P.S.O.), redes neuronales, an´alisis de componentes principales, . . . , y se han llegado a obtener resultados bastante buenos. La posibilidad de formar parte de un proyecto cuyo fin es aportar un granito de arena en el progreso m´edico para hacer la vida m´ as facil a las personas de las futuras generaciones fue el detonante de la elecci´ on de ´este como el proyecto de fin de grado. Los objetivos para este proyecto consisten en mejorar los resultados obtenidos por los anteriores compa˜ neros, asi como esclarecer algunas de las hip´otesis que se plantearon al abrir esta l´ınea de investigaci´ on. Por ejemplo, la creaci´ on de los diversos patrones o pruebas a las que se sometieron los pacientes fueron pensadas para analizar el comportamiento de las enfermedades ante distintas circunstancias y buscar rasgos diferenciativos con los que poder realizar un diagn´ostico fiable. Algunas de las hip´otesis, que se ir´ an desarrollando a lo largo del proyecto, son las siguientes: Los pacientes de Parkinson y los pacientes de esencial deben comportarse de manera diferente al realizar las pruebas est´ aticas, pues los pacientes de Parkinson sobre todo presentan temblor en reposo [Bhidayasiri, 2005] y se incrementa con la intenci´on de movimiento, frente a los de temblor esencial, que suelen temblar m´ as en movimiento o mantenimiento forzado de la postura. Las distintas pruebas deber´ıan dar resultados diferentes si las clasificamos por tipo de patr´on (est´ aticos, cin´eticos o din´ amicos), para comparar el comportamiento de una misma enfermedad ante distintos tipos de movimiento. El diagn´ ostico diferencial comparando distintos tipos de patrones deber´ıa dar buenos resultados. El diagn´ ostico diferencial de las enfermedades se deberia poder afinar seleccionando las pruebas m´ as diferenciativas no solo por tipo de prueba seg´ un tipo de temblor, sino por las pruebas en s´ı mismas (veremos en el cap´ıtulo 2, p´ag. 13 que hay dieciocho pruebas distintas, clasificadas en tres

13

14

Cap´ıtulo 2 - Introducci´ on

tipos de temblor, a saber, est´ aticos (reposo y postural [Bhidayasiri, 2005]), cin´eticos y din´amicos (isom´etricos y de tarea espec´ıfica [Bhidayasiri, 2005]). Las enfermedades neurodegenerativas que causan trastornos en el movimiento (E.N.T.M.) est´an muy presentes en la sociedad (el temblor esencial afecta hasta a un 6 % de la poblaci´on, provocando usualmente sensaciones de turbaci´ on en quienes lo padecen [Crawford and Zimmerman, 2011]). La inversi´on de tiempo y recursos en investigaciones cuyo fin es mejorar la calidad de vida de personas que sufren trastornos tan frustrantes como el temblor esencial o el Parkinson no deber´ıa ser objeto de duda, se trata de una necesidad que afecta directamente a la salud de los individuos de un pa´ıs. Es por ello que se aborda con enorme motivaci´ on este proyecto.

2.2.

Proyecci´ on para este trabajo

Como se ha podido comprobar en el cap´ıtulo anterior, el resumen que se ha realizado de las etapas anteriores ha estado enfocado a los errores cometidos con los distintos procedimientos empleados. Adem´as, el lector se habr´ a percatado de que el com´ un denominador de todos los proyectos realizados hasta ahora es el uso de las redes neuronales como t´ecnica de inteligencia artificial para la clasificaci´on. La aportaci´on m´ as importante de este proyecto tal vez sea el uso de t´ecnicas y herramientas nunca utilizadas en esta l´ınea de investigaci´ on para la clasificaci´ on. Concretamente, se han empleado la l´ogica borrosa para la clasificaci´ on y los algoritmos gen´eticos para el clustering. El objetivo principal es el de la reducci´ on del error en el diagn´ostico. Y no s´olo eso, tambi´en se ha intentado encontrar diferencias entre los tipos de error, a saber, error por diagn´ostico y error del sistema (la precisi´ on de la propia algoritmia). Por otra parte, se ha buscado limpiar el espacio de b´ usqueda de dos maneras: detectar los vectores at´ıpicos por t´ecnicas novedosas, y encontrar un subespacio adecuado para la clasificaci´on dentro del espacio formado por todas las caracteristicas descritas en proyectos anteriores (salvo las discontinuidades).

2.2.1.

T´ ecnicas y herramientas mantenidas

Desde el principio se ha trabajado mucho y con mucho ingenio para encontrar las t´ecnicas y herramientas que permitieran demostrar las hip´ otesis establecidas desde la creaci´on del sistema Dimeter® . Es m´ as, se pretende demostrar que la ingenier´ıa aporta valor a˜ nadido a la labor cl´ınica, permitiendo a los m´edicos especialistas en las enfermedades neurodegenerativas y en los trastornos del movimiento jugar con un abanico de pruebas m´ as amplio con el que poder determinar con m´as certeza el diagn´ostico de un paciente. Por ello, y por la eficacia que se ha encontrado en su uso, se han tenido en cuenta las veintiseis primeras caracteristicas definidas por Rubio en [Mart´ın, 2002], as´ı como las ocho caracter´ısticas descritas por Benito [Hern´ andez, 2009]. Con ellas, se ha tratado de encontrar la combinaci´on ´optima para reducir el espacio de b´ usqueda, permitiendo eliminar las componentes menos influyentes y las que pueden dar lugar a resultados err´ oneos. Se ha seguido la trayectoria de J. M. Ram´on con el an´alisis de componentes principales, por si se encontrara informaci´ on que de alguna manera se le hubera escapado a ´el (el an´alisis de componentes principales resulta de gran utilidad en an´ alisis de datos multivariable, lo que justifica la repetici´on de las pruebas). Asimismo se ha adoptado la misma filosof´ıa que B. Coca en cuanto a la encapsulaci´on de los m´etodos de trabajo en funciones y scripts de Matlab® , con el fin de facilitar el trabajo a los compa˜ neros de los a˜ nos venideros.

2.2.2.

Aportaciones previstas

Al inicio de este trabajo se pens´ o en generar nuevas ideas, refrescar los m´etodos empleados y explorar nuevos senderos en busca de los objetivos establecidos. En la figura 2.1 se puede ver un diagrama en el que se exponen las ideas que se prev´e abordar en el transcurso de este proyecto. A continuaci´ on se explica brevemente cada una de ellas. Aportar nuevas herramientas de clasificaci´ on En efecto, uno de los objetivos de este proyecto consiste en encontrar t´ecnicas diferentes a las redes neuronales para la clasificaci´ on de vectores que, en definitiva, representan pacientes reales.

2.2 - Proyecci´ on para este trabajo

15 Aportar nuevas herramientas de clasificaci´on

Limpiar at´ıpicos

Comprobar los resultados anteriores desde otra perspectiva

Mejorar el subespacio de caracter´ısticas

Aportaciones previstas

Encontrar diferencias entre patrones

Generar vectores sint´eticos Demostrar hip´otesis de partida

Dividir el an´alisis del error

Figura 2.1: Diagrama de ideas previstas para la realizaci´ on de este trabajo Entre las t´ecnicas que se espera poder implementar est´a la l´ogica borrosa y los algoritmos gen´eticos. La idea es sencilla, las t´ecnicas no lo son tanto: el fin es encontrar la combinaci´on adecuada de caracteristicas (encontrar un subespacio) que permitan generar conjuntos separados para poder realizar el diagn´ostico. La manera de crear los conjuntos se realiza mediante la observaci´on de las distribuciones de probabilidad (v´ease el cap´ıtulo 6, p´ ag 93) y del clustering (realizado mediante algoritmos gen´eticos). La observaci´ on de las distribuciones de probabilidad se har´a mediante un algoritmo de optimizaci´ on en el que se escogen las distribuciones que m´as se ajustan a los valores reales (ver figura 2.2) Ajuste de una poblaci´ on por distintas distribuciones 10 Muestras reales Distribuci´ on Normal Distribuci´ on Log-Normal Distribuci´ on Exponencial Distribuci´ on Gamma Distribuci´ on Weibull

Frecuencia

8 6 4 2 0 −4

−2

0

2

4 6 8 Valores de la variable

10

12

14

Figura 2.2: Ajuste de una poblaci´ on por distintas distribuciones. Como se puede comprobar, la que mejor se ajusta parece ser la normal logar´ıtmica (la poblaci´ on se ha generado con n´ umeros aleatorios de acuerdo a una ley noral logar´ıtmica, de ah´ı que sea la que mejor se ajuste). Veremos en el cap´ıtulo ?? el criterio para escoger la que tiene el ajuste ´ optimo Posteriormente, se realizar´ a el diagn´ostico de los vectores teniendo en cuenta el grado de pertenencia del mismo a uno de los conjuntos (conjuntos borrosos) mediante las t´ecnicas de la l´ogica borrosa, simplemente d´ andole una probabilidad de pertenencia a cada uno de los grupos (figura 2.3). La detecci´ on de los grupos en el subespacio de caracter´ısticas encontrado mediante el an´alisis de las distribuciones se llevar´ a a cabo mediante algoritmos gen´eticos. Por otra parte, se realizar´ a un diagn´ ostico paralelo basado en las funciones de probabilidad encontradas en la etapa anterior, emple´ andolas como funciones de probabilidad de pertenencia. As´ı, se calcular´ a la probabilidad del vector de test componente por componente y despu´es se calcular´a la probabilidad total

16

Cap´ıtulo 2 - Introducci´ on

4 2 ¿Qu´e soy? 0 4

3

2

1

0

−1−1

0

1

2

3

4

Figura 2.3: Problema de pertenencia a un conjunto (cluster). El vector magenta se pregunta a qu´e grupo pertenece, pues est´ a a una distancia intermedia de los grupos, pero no dentro de ninguno.

de pertenecer a cada uno de los conjuntos mediante una ponderaci´on adecuada de las componentes. Esta ponderaci´ on en intentar´ a optimizar para que se adapte a cualquiera que sea el conjunto de vectores de entrenamiento. Se trabajar´ a realizando distintas combinaciones entre tipos de patr´on, y entre tipos de temblor, con el fin de demostrar las hip´ otesis de partida. Finalmente, se buscar´ a una funci´ on de c´alculo de error que permita obtener una idea clara de los resultados de los procedimientos. La presencia de vectores at´ıpicos se hace evidente cuando se visualizan los conjuntos. Los vectores at´ıpicos desv´ıan la media y modifican la varianza del conjunto, dificultando la posterior caracterizaci´on del mismo y, por ende, entregando resultados err´ oneos en el c´alculo de la pertenencia de un vector de test. Se tratar´ a de introducir alguna t´ecnica de detecci´on de vectores at´ıpicos basada en el an´alisis multivariante y que tenga en cuenta no solo la distancia de los puntos a una media, como si la nube de puntos fuese esf´erica y aquellos que estuviesen fuera del radio fueran at´ıpicos, sino como una medida ponderada de alguna manera por la matriz de correlaci´ on multivariante, para dar una idea de c´omo de cerca est´a un punto a una nube que no tiene por qu´e ser una hiperesfera. Adem´ as, se intentar´ a aplicar un mecanismo de detecci´on manual de vectores at´ıpicos para repasar los resultados obtenidos tras el algoritmo. Se tratar´ a de buscar el subespacio ´ optimo de caracter´ısticas por diferentes m´etodos: Mediante an´ alisis multivariante de las caracter´ısticas. Se inspeccionar´a la matriz de dispersi´on bivariante, en la que se presentan las caracteristicas enfrentadas dos a dos, para ver c´omo se distribuyen los conjuntos en el espacio total. Mediante el an´ alisis de los histogramas de cada una de las caracteristicas. Mediante la diferenciaci´ on de los tipos de patr´on y an´alisis de los histogramas parciales. Comprobando el an´ alisis de componentes principales realizado por Ram´on [L´opez, 2006]. Comprobando los resultados del clustering. Adem´ as, si el tiempo ha corrido a nuestro favor, se intentar´a generar vectores sint´eticos aplicando el P.S.O. o alguna t´ecnica similar. Demostrar las hip´ otesis de partida Se intentar´ a dar justificaci´ on a la variedad de patrones creados en el origen, con el sistema Dimeter® , se buscar´ an pruebas de que el temblor se puede diagnosticar por m´etodos ingenieriles, y se intentar´a dar datos que corroboren los resultados obtenidos anteriormente. Asimismo, parafraseando a Ortega y Gasset, se intentar´ a ‘‘ver la sierra de Guadarrama desde la vertiente madrile˜ na y la vertiente segoviana’’, es decir, se comprobar´ an los experimentos realizados por otros compa˜ neros mediante las nuevas t´ecnicas propuestas.

2.3 - Descripci´ on de las herramientas

17

Para terminar, se intentar´ a hacer un an´alisis de los tipos de error que se est´an cometiendo en la l´ınea de investigaci´ on, intentando separar el error del sistema (de los m´etodos y algoritmos) del error en el diagn´ ostico ‘‘cl´ınico’’.

2.3.

Descripci´ on de las herramientas

Este trabajo consiste, grosso modo, en el an´alisis de datos. Estos datos son reales, y han sido recopilados en diversas pruebas llevadas a cabo con pacientes que padec´ıan temblor esencial, Parkinson, y pacientes sanos. Tras su adquisici´ on, se ha procedido, en diversas ocasiones, a su an´alisis con herramientas potentes, como Matlab® . A continuaci´ on se describen las herramientas gracias a las cuales hoy se ha llegado a obtener los resultados, y creado los m´etodos, que en este trabajo se presentan.

2.3.1.

Sistema de adquisici´ on de datos

La adquisici´ on de los datos se lleva a cabo en un escenario en el que el paciente est´a presente, sentado en una silla, y observando una pantalla. Se le hacen una serie de pruebas relacionadas con el movimiento, de las cuales se miden las componentes X, Y, Z de la trayectoria. El sistema con el que se realiza la adquisici´ on se denomina Dimeter® , y se describe a continuaci´on. Sistema Dimeter® Dimeter® consiste en un sistema para la caracterizaci´on del temblor mediante patrones que aplican fuerzas virtuales[Barrientos Cruz et al., 2000]. Se trata de un conjunto dispositivo-procedimiento para la evaluaci´ on objetiva del temblor que se manifiesta en las manos o dedos de una persona. Este sistema registra de manera tridimensional la posici´on, la velocidad y la aceleraci´on, mientras el paciente realiza movimientos propuestos y controlados por el sistema. De esta manera se consigue conocer los efectos que las fuerzas ejercen sobre el paciente y, en consecuencia, caracter´ısticas del movimiento a partir de las cuales se puede evaluar el temblor [Barrientos Cruz et al., 2000].

Dispositivo Electromecánico

7

2 3

1

PC

8 9

15º

50Icm

10

4IyI5

PACIENTE

SUPERVISOR 6

A B

Figura 2.4: Esquem´ atico del sistema de adquisici´ on Dimeter® (imagen [Barrientos Cruz et al., 2000] y modificada) En la figura 2.4 se puede ver un esquem´atico del sistema en su conjunto. En la figura se aprecia el brazo electromec´ anico (1). Este brazo articulado tiene un captador de posici´on (3) capaz de medir el

18

Cap´ıtulo 2 - Introducci´ on

movimientos de cada una de sus articulaciones, as´ı como un motor (2) capaz de generar un par sobre cada una de estas: sensores (3) y motores (2) se conectan al ordenador de control (4) a trav´es de las adecuadas interfaces. La persona cuyo temblor se pretende evaluar, debe sujetar sumano o dedo al extremo del brazo, para lo que se dispone de un dedal o ap´endice (10) sujeto mediante correas o cintas r´ıgidamente al dedo. Esta uni´ on debe ser tal que no restrinja los movimientos de la extremidad de la persona a examinar. Sobre la pantalla del ordenador y gracias a los adecuados programas (5), se gu´ıa el proceso, presentando los diferentes patrones, bien sean sobre la propia pantalla (6) o sobre dispositivos perif´ericos (7, 8, 9) [Barrientos Cruz et al., 2000]. El paciente debe realizar una serie de patrones, mostrados en el monitor del ordenador o en los dispositivos externos que implican la generaci´on de una trayectoria con su mano, a la vez que se le aplican fuerzas generadas por el ordenador de control, all mismo tiempo que se van registrando las coordenadas del movimiento en las direcciones X, Y, Z. Los patrones consisten en una serie de trayectorias (ver 2.4.2, p´ag 23) que el paciente tiene que seguir para registrar su movimiento. En teor´ıa [Barrientos Cruz et al., 2000] los patrones pueden ser mostrados sobre la pantalla del ordenador (trayectorias lineales, circulares, espirales o de vaiv´en), sobre un panel formado por leds (movimientos reactivos), sobre una tableta digitalizadora (dibujos y firma), sobre el espacio f´ısico (movimientos propioceptivos) o sobre elementos externos. En la pr´actica, los patrones que se llevaron a cabo se explican detalladamente en 2.4.2, y de forma general consisten en patrones est´aticos (el paciente debe estar en reposo), cin´eticos (el paciente tiene que mover la mano, sin aplic´arsele ninguna fuerza), y din´ amicos (el paciente debe realizar movimientos o permanecer est´atico, tratando de vencer una fuerza generada por el ordenador de control). El uso el sistema Dimeter® , permite: Evaluar de una manera objetiva el grado de temblor de un paciente, mediante patrones de movimiento similares a los utilizados por la pr´actica cl´ınica. Evaluar el efecto de un tratamiento (farmacol´ogico o quir´ urgico) de la enfermedad que origina el temblor, facilitando criterios para la selecci´on de su dosis o ajuste. Realizar un seguimiento objetivo de las manifestaciones de la enfermedad del paciente a lo largo del tiempo. Se trata, por tanto, de un sistema rob´ otico, con interfaces hombre-m´aquina, realidad virtual y realidad aumentada que, gracias a la experiencia de la DISAM-UPM en t´ecnicas de adquisici´on y filtrado de la se˜ nal, permite seguir incorporando tecnolg´ıas novedosas, y desarrollando sistemas de medida de acuerdo con las necesidades de la medicina profesional o de la investigaci´on m´edica.

2.3.2.

Herramientas para el an´ alisis de datos

Una vez se han extra´ıdo los datos, y se han guardado en ficheros con extensi´on .txt, guardados con una estructura de directorios definida e invariante (para poder automatizar su lectura), se puede pasar a su extracci´ on y an´ alisis en un entorno de programaci´on que permita crear algoritmos con los que obtener nuevos resultados a partir de los datos extra´ıdos de los pacientes. Al igual que en a˜ nos anteriores, se ha elegido el entorno Matlab® , por su sencillez, intuitividad y potencia no solo para la creaci´on de algoritmos, sino para la reutilizaci´ on de scripts, uso de toolboxes y visualizaci´on de los resultados. Asimismo se ha utilizado el software Statgraphics® como apoyo, por su rapidez en el c´alculo de estad´ısticos, y por la cantidad de informaci´ on que es capaz de mostrar en poco tiempo. Entorno Matlab® Matlab® es una herramienta de software matem´atico con un lenguaje propio de programaci´ on. Fue creada para trabajar con matrices de datos, por lo que resulta muy eficiente para el an´alisis de grandes estructuras de datos, si ´estas las podemos componer en forma de matrices.

Figura 2.5: Icomo de Matlab®

2.3 - Descripci´ on de las herramientas

19

Herramienta Import Data Los datos registrados con el Dimeter® se guardan en ficheros de texto, por lo que ha sido de gran utilidad la herramienta Import Data, gracias a la cual se han podido visualizar c´ omodamente los ficheros .txt y generar el c´odigo necesario para la automatizaci´on de su importaci´ on. Esta herramienta es la que se muestra en la figura 2.6.

Figura 2.6: Captura de pantalla de la herramienta Import Data de Matlab®

Toolbox de estad´ıstica Con este complemento para Matlab® se han podido emplear aplicaciones como Distribution Fitting Tool, que sirven para ajustar de manera ´optima (calculando los par´ametros de las distribuciones, como la media (µ) y la varianza (σ) para una distribuci´on Normal N (µ, σ)). En la figura 2.7 se puede ver una captura de pantalla de esta herramienta en la que se ajusta una distribuci´ on de datos de la frecuencia a la que se produce el m´aximo del PSD por medio de una distribuci´on Weibull, una normal-logar´ıtmica, una normal y una gamma.

Figura 2.7: Captura de pantalla de la herramienta Distribution Fitting Tool de Matlab®

Toolbox de procesamiento de se˜ nal Gracias a esta toolbox se ha falcilitado mucho el dise˜ no del filtro. Concretamente, la aplicaci´ on que se ha utilizado es Filter Design and Analysis, tanto el dise˜ no de filtros (se abre mediante el comando fdatool), como la visualizaci´on de filtros (comando fvtool). Toolbox de an´ alisis espectral de alto orden (HOSA) Con este complemento para Matlab® se han podido implementar funciones para trabajar con estad´ısticas de orden superior (c´alculo de la densidad espectral de potencia (PSD), biespectro (BIS) y del triespectro (TRIS)). Esta toolbox no viene instalada por defecto, y hay que descargarla de: http://www.mathworks.com/matlabcentral/fileexchange/ 3013-hosa-higher-order-spectral-analysis-toolbox Al instalar la toolbox, carga en el Path de Matlab® una serie de funciones cuyo fichero .m est´a escrito en letras may´ usculas. Esto suele dar problemas a la hora de utilizar la herramienta, ya que Matlab® es case sensitive, y hay que cambiar el nombre de los ficheros para pasarlos a min´ usculas.

20

Cap´ıtulo 2 - Introducci´ on

Herramientas de ploteo Se han empleado varias funciones de Matlab® para representar los resultados obtenidos, y para poder observar la evoluci´on de los algoritmos. Algunas de las funciones empleadas son plot, plot3, plotmatrix hist o pareto. A lo largo del documento se ir´an mostrando en las figuras los resultados de estas funciones. Su utilidad y sencillez de utilizaci´on son enormes, y m´as a´ un su accesibilidad en la pesta˜ na de plots (en la versi´on R2013a), como se puede ver en la figura 2.8.

Figura 2.8: Captura de pantalla de una de las entradas de la pesta˜ na Plots, concretamente la entrada en la que se han guardado las gr´ aficas m´ as utilizadas a lo largo del proyecto

Software Statgraphics® Statgraphics® es un software de estad´ıstica que implementa y explica funciones estad´ısticas, tanto de nivel b´ asico como de nivel avanzado.

Figura 2.9: Icono de Statgraphics® En este proyecto se ha empleado u ´nicamente como apoyo, con el fin de visualizar de manera m´as r´ apida que con Matlab® las caracter´ısticas estad´ısticas de los datos tanto adquiridos con el sistema Dimeter® como obtenidos a posteriori mediante el an´alisis espectral y la caracterizaci´on. Ha sido de gran utilidad para la representaci´ on multivariable de las caracteristicas, y para el c´alculo y ajuste de los par´ ametros de las funciones de distribuci´ on de probabilidad de las caracter´ısticas del temblor. Adem´as, su funci´ on de detecci´ on de at´ıpicos ha dado una idea de la calidad de los datos m´as tangible de lo que se hab´ıa hecho hasta ahora en trabajos anteriores. Control de versiones: Atlassian® Bitbucket® + Sourcetree® + Git® A lo largo de todo el proyecto, con el fin de llevar un control del trabajo que se ha ido realizando y automatizar el control de versiones del c´ odigo Matlab® para facilitar la comprensi´on tanto en el desarrollo de este trabajo, como en trabajos futuros, se ha utilizado el control de versiones que ofrece la empresa Atlassian® mediante su servicio host privado y gratuito conjunto con el sistema de control de versiones Git® . Adem´ as se ha empleado una interfaz gr´afica para el uso de Git® , ofrecida tambi´en de forma gratuita por Atlassian® , Sourcetree® .

(a) Logo de Bitbucket®

la

plataforma

(b) Icono Sourcetree®

del

software

(c) Icono del sistema de control de versiones Git®

Figura 2.10: Logos de Bitbucket® (2.10a) y Sourcetree® (2.10b) de Atlassian® y de Git® (2.10c) A medida que el proyecto ha ido avanzando se ha ido confeccionando una Wiki en Bitbucket® , de forma completamente privada, y controlando el acceso del tutor del proyecto para poder hacer un seguimiento y, si resultara oportuno, escribir alg´ un comentario (se le concedi´o acceso de lectura y escritura). Este repertorio ser´ a transferido al tutor del proyecto cuando se finalice el mismo, con el fin de que otros estudiantes puedan tenerlo como referencia a la hora de continuar el trabajo en esta l´ınea de investigaci´ on. El tutor simplemente tendr´ a que conceder permisos de lectura y, en su caso, de escritura (si lo considerara conveniente) al nuevo alumno que abordara la continuaci´on de este trabajo.

2.3 - Descripci´ on de las herramientas

21

La plataforma se compone de varios recursos, entre los cuales hay que destacar la pesta˜ na Fuente y la pesta˜ na Wiki, pues son las dos m´ as utilizadas en este trabajo. En la pesta˜ na Fuente se puede ver el c´ odigo de las u ´ltimas versiones, as´ı como los cambios producidos entre ellas, y en la pesta˜ na Wiki se entra en la p´ agina wiki principal (v´ease la figura 2.11).

Figura 2.11: Captura de pantalla del repertorio de Bitbucket® en el que se guarda la evoluci´ on del proyecto ‘‘PFG Matlab’’ Respecto a la estructura de la wiki en el repertorio, simplemente hay que indicar que la wiki principal es una especie de ‘‘diario’’, en el que se presentan de manera cronol´ogica los avances en el proyecto, asi como los problemas que se han ido afrontando, las modificaciones y los resultados obtenidos de una forma general. Adem´ as, hay enlaces a otras wikis, en las que se explican de manera detallada los aspectos m´ as importantes del proyecto: El dise˜ no del filtro La extracci´ on de caracteristicas de los temblores El an´ alisis de componentes principales El ajuste de las distribuciones a las caracteristicas Y algunos otros apartados que merecen una explicaci´on minuciosa, para que los trabajos que se aborden en un futuro no caigan en los mismos errores en los que se ha ca´ıdo en este proyecto y en los anteriores. En cuanto a la herramienta Sourcetree® , es de gran utilidad, ya que se trata de una interfaz gr´ afica con la que se automatiza el control de versiones, se detectan los cambios realizados en los ficheros, y se puede sincronizar con el repertorio de Bitbucket® para subir los cambios detectados. Resulta de gran utilidad tamb´en la posibilidad de organizar las versiones por ramas independientes (ver figura 2.12), de manera que se puede trabajar en una rama, por ejemplo en la parte de an´alisis de componentes principales (ver ??, p´ ag. ??), y cuando se haya terminado el c´odigo, unirlo con el de la rama princpial (rama master). Cada vez que se sube una actualizaci´ on del c´odigo (tras haber realizado un commit para actualizarlo y generar un nuevo nodo en el ´ arbol), se hace un push, y se env´ıa al repertorio de Bitbucket® . De igual manera, si en un momento dado se desea descargar una versi´on que sali´o bien, se puede hacer un pull desde el repertorio de Bitbucket® a un directorio de nuestro PC, descarg´andolo como un archivo comprimido (.rar). Edici´ on de las im´ agenes y composici´ on del documento En cuanto a la realizaci´ on de las figuras para su presentaci´on, as´ı como para la edici´on del presente documento e informes intermedios a lo largo del proyecto, se ha empleado la herramienta gratuita Inkscape® para la vectorizaci´ on de las im´agenes y la conversi´on del formato .svg (propio de las im´ agenes vectoriales) a texto plano interpretable por LATEX mediante el paquete tikz. Para la realizaci´ on de los diagramas (como los de flujo) se ha utilizado MS Visio® , y para la edici´on del documento se ha

22

Cap´ıtulo 2 - Introducci´ on

Figura 2.12: Captura de pantalla del software Sourcetree® . Como se puede ver, se han creado tres ramas (que a´ un no se hab´ıan unido a la rama principal)

(a) Icono del software Inkscape®

(b) Icono del lenguaje LATEX

(c) Icono de MS Visio®

Figura 2.13: Logos de Inkscape® (2.13a), LATEX(2.13b) y de MS Visio® (2.13c) empleado TEXWorks de MiKTEX, software gratuito para la edici´on y compilaci´on de ficheros en lenguaje LATEX. Inkscape® es un editor de gr´ aficos vectoriales .svg gratuito, libre y multiplataforma con capacidades similares a Adobe Illustrator o CorelDraw, con una interfaz muy u ´til y accesible. MS Visio® es una herramienta de dibujo vectorial que permite realizar diagramas de flujo, layouts, UML y hasta planos de ingenier´ıa de una manera r´apida y sencilla para el usuario. LATEX es un sistema de composici´ on de textos, orientado especialmente a la creaci´on de libros, documentos cient´ıficos y t´ecnicos que contengan f´ ormulas matem´aticas, precisamente como el presente trabajo. El lenguaje est´ a formado por un conjunto de macros que permiten facilitar el uso del lenguaje de composici´ on tipogr´ afica, permitiendo elaborar documentos de calidad comparable a la de una editorial cient´ıfica de primera l´ınea. Concretamente, por si el lector estuviera interesado, se recomiendan las siguientes referencias: Iniciaci´ on a LATEX2ε . Un sistema para preparar documentos [Botella, 1997] para una introducci´on suave pero eficaz. El Libro del LATEX [Salinas, 2003] como lectura para profundizar. The Comprehensive LATEX Symbol List [Pakin, 2009] para tener una referencia de (casi) todos los s´ımbolos que se pueden encontrar en el lenguaje.

2.4.

Descripci´ on de los datos

El sistema de adquisici´ on Dimeter® fue utilizado en a˜ nos anteriores con pacientes reales en consultas de hospitales de la Seguridad Social. Gracias a este sistema, se ha podido ver el comportamiento del movimiento de la mano de un paciente ante diversos est´ımulos, como seguir la trayectoria marcada por un ordenador de control en su monitor, vencer una fuerza al mismo tiempo que se debe realizar un movimiento, o realizar movimientos tridimensionales con equipo externo al computador. El fin de todas las pruebas es construir una base de datos lo suficientemente representativa de cada uno de los tres tipos de paciente que se pretende poder diferenciar de manera autom´atica. Si bien el n´ umero de pacientes que se estudi´ o no es grande, a cada uno de ellos se le someti´o a (en principio) dieciocho pruebas diferentes. Por motivos de salud, de estado del paciente en el momento de las pruebas, o porque se pon´ıa nervioso, algunas de las pruebas no se pudieron llevar a cabo, por lo que hay algunos espacios

2.4 - Descripci´ on de los datos

23

en blanco en la base de datos. No obstante, se han tenido en cuenta estas discontinuidades en los datos a la hora de trabajar con ellos, sobre todo en el momento de leer los ficheros .txt. La manera con la que el sistema recoge los datos es a traves de un perif´erico dise˜ nado a tal efecto, el Phantom [Hern´ andez, 2009]. Se trata de un dispositivo de gran precisi´on para determinar la posici´ on de su extremidad, unida al dedo del paciente mediante un dedal, en las tres dimensiones del espacio (X, Y, Z). Adem´ as permite devolver una fuerza como respuesta al movimiento realizado (feedback). La frecuencia de lectura de la posici´ on en los tres ejes es: fs = 100Hz

(2.1)

De esta manera, el ordenador de control va registrando los valores de las posiciones de X, Y y Z en ficheros .txt, asi como las componentes en esas direcciones de las fuerzas que se aplican sobre el paciente (en otras tres columnas del mismo fichero de texto).

2.4.1.

N´ umero de datos

Las pruebas, llevadas a cabo en centros de sanidad p´ ublica de la Seguridad Social (Hospital Ram´ on y Cajal), se han realizado en contadas ocasiones. Con un total de cincuenta y dos pacientes diferentes (contando los pacientes de Parkinson, temblor esencial y los sanos), no se deben esperar resultados infalibles. Sin embargo, cada uno de los pacientes fue sometido a una serie de pruebas, como se vera m´ as adelante en esta secci´ on, a partir de las cuales se pueden obtener datos diferenciadores en cuando al tipo de temblor en una misma enfermedad, pero hay que tener en cuenta que no deja de ser el mismo paciente. Adem´ as, los pacientes de una misma enfermedad no realizaron las pruebas en las mismas condiciones, a saber, algunos estaban bajo tratamiento m´edico, otros estaban m´as nerviosos de lo normal y las edades eran diferentes en algunos casos. Por ello, al analizar los datos, se ha tenido que tener en cuenta la posibilidad de encontrar datos at´ıpicos y, en su caso, valorar si mantenerlos dentro del conjunto o desecharlos. En cuanto a la cantidad de pacientes de cada enfermedad, se ha trabajado con 23 pacientes con Parkinson diagnosticado por los m´edicos especialistas, 7 pacientes que padec´ıan temblor esencial, y 22 individuos sanos, entre los que se encontraba personal relacionado con el proyecto, ofrecidos voluntarios para realizar las pruebas. Nota 1: Insuficiencia de datos Hemos visto que contamos con 23 pacientes de Parkinson, 7 de temblor esencial y 22 individuos sanos. Esto hace un total de 52 individuos, a partir de los cuales se intenta extraer una idea general en cuanto a las caracteristicas y al diagn´ostico de estos tipos de pacientes. Tal y como se ver´a en los cap´ıtulos 5 (p´ ag. 61) y 6 (p´ ag. 93), este n´ umero de pacientes no es suficiente, aunque hayamos realizado distintas pruebas con ellos, para extraer conclusiones fidedignas sobre los resultados. Por ello, el m´etodo aqu´ı expuesto presupone que en un futuro se realizar´an m´as pruebas, con lo que los resultados tomar´ an valores m´ as fiables.

2.4.2.

Pruebas a las que se someti´ o a los pacientes

Tal y como muestra la figura 2.4, el paciente y el supervisor se sit´ uan sentados delante de la mesa sobre la cual est´ a el sistema Dimeter® . En la mesa se encuentran el Phantom (dispositivo de adquisici´ on), los elementos externos para realizar pruebas, y el ordenador de control. En la figura 2.14 se puede ver la disposici´ on real del paciente y del supervisor en la sala de pruebas. Los movimientos que se pidi´ o realizar al paciente se pueden agrupar en tres clases generales: Movimientos est´ aticos: Se pide al paciente que mantenga la posici´on de su dedo en unas coordenadas determinadas del espacio. Movimientos cin´ eticos: El paciente realiza un movimiento, marcado por un patr´on (bien en la pantalla, bien sobre un dispositivo externo) sin tener que vencer ninguna fuerza: es un movimiento libre. Movimientos din´ amicos: El paciente debe: bien mantener el dedo en unas coordenadas determinadas en el espacio, bien realizar un movimiento predefinido, pero esta vez, en ambos casos, deber´a vencer una fuerza que el dispositivo Phantom aplica sobre ´el.

24

Cap´ıtulo 2 - Introducci´ on

De ahora en adelante, a cada uno de los tres tipos de movimientos se les denominar´ a ‘‘pruebas o patrones del tipo ’’, o simplemente ‘‘pruebas o patrones ’’, por ejemplo: ‘‘. . . en cuanto a los patrones din´ amicos. . . ’’ o ‘‘. . . las pruebas cin´eticas presentan una varianza. . . ’’ Las dieciocho pruebas se han realizado mediante dos dispositivos: el monitor del ordenador, y la plataforma tridimensional (el elemento 9 de la figura 2.4, y Figura 2.14: Situaci´ on real del paciente y del supervisor con el modelo 3D de la figura 2.27a). ® respecto al sistema Dimeter . El aparato negro es el PhanA continuaci´ on se explican detallatom. Imagen obtenida en http: // www. robcib. etsii. upm. damente los tres tipos de pruebas que es/ images/ stories/ projects/ old/ dimeter1. jpg se realizaron con los pacientes. En total son dieciocho, dos del tipo est´ atico, doce de tipo cin´etico y cuatro pruebas din´ amicas. Pruebas est´ aticas En estos patrones no existe ninguna intenci´on de movimiento. Estas pruebas consisten en mantener inm´ ovil la mano, con el codo y la mu˜ neca en distinta configuraci´on, apuntando al centro de una diana que aparece en la pantalla. Existen dos patrones est´ aticos. El primero (v´eanse figuras 2.15) consiste en apoyar el codo sobre la mesa, frente al monitor (figura 2.15a), y trata de mantener la mano se˜ nalando al centro de la diana con el dedo, formando un ´ angulo de 90◦ la vertical del antebrazo y el vector normal a la pantalla. Tanto en la figura 2.15b y 2.16b t´engase en cuenta las escalas de los ejes (son mil´ımetros, la vibraci´on es en torno a un punto).

210

Eje Y

205 200 195 190

Y X

185 130

(a) Imagen en el monitor para el patr´ on 1. El eje Z sale de la pantalla hacia nosotros.

140 150 Eje X

160

(b) Trayectoria seguida por un paciente de Parkinson.

Figura 2.15: Patr´ on 1. Codo apoyado sobre la mesa y se se˜ nala al centro de la diana con la mano. En el segundo patron (figura 2.16) el paciente mantiene el brazo estirado apuntando al centro de la diana, situ´ andose frente al monitor. En este caso, el patron es est´atico entre comillas, pues el paciente tiene que vencer la fuerza de la gravedad sobre su brazo. En todos los casos en los que el paciente tiene que interactuar con la pantalla, el plano XY es la propia pantalla, mientras que el eje Z sale de ´esta hacia el paciente. De manera an´aloga sucede con la

2.4 - Descripci´ on de los datos

25

Eje Y

150

140

130

Y X

−30

(a) Imagen en el monitor para el patr´ on 2. El eje Z sale de la pantalla hacia nosotros.

−20

−10 Eje X

0

10

(b) Trayectoria seguida por un paciente de Parkinson.

Figura 2.16: Patr´ on 2. Brazo estirado y mano apuntando al centro de la diana. maqueta 3D, en la que el eje Y sale del paciente, y el eje Z coincide con la vertical en el dispositivo Phantom. Al ser un sistema de coordenadas dextr´ogiro, el eje X crece hacia la derecha del paciente. Todas las figuras se componen de dos subfiguras a su vez. En las figuras (b) se muestra las trayectorias reales que han seguido dos pacientes de Parkinson y temblor esencial concretos. Estas figuras se han realizado con Matlab® , y la escala de los ejes corresponde a los mil´ımetros. Pruebas cin´ eticas Las pruebas cin´eticas requieren del movimiento intencional del paciente a lo largo de una trayectoria definida y mostrada por la pantalla o sobre la maqueta 3D, siempre vigilada por el ordenador de control. Los patrones est´ aticos son un total de doce, desde el patron PT3 (siguiendo la notaci´on tomada en el nombramiento de los ficheros .txt) al patr´on PT14. Los primeros cuatro tipos de patrones cin´eticos son los m´as sencillos desde el punto de vista de la coordinaci´ on del paciente y, en consecuencia los que menos ayuda podr´ıan aportar a la caracterizaci´ on. Los patrones siete, ocho y nueve son patrones circulares, que incrementan la dificultad por necesitar m´ as coordinaci´ on, al igual que los patrones diez y once, de car´acter sinusoidal y sinusoidal-exponencial, respectivamente.

250

A

B

Eje Y

200 150 100 Y

50 0

X

−200

(a) Imagen en el monitor para el patr´ on 3. El eje Z sale de la pantalla hacia nosotros.

−100

0 Eje X

100

(b) Trayectoria seguida por un paciente de Parkinson.

Figura 2.17: Patr´ on 3. El primero de los patrones cin´eticos, el PT3 (figura 2.17), consiste en seguir una trayectoria horizontal

26

Cap´ıtulo 2 - Introducci´ on

a velocidad constante, describiendo un recorrido de ida y vuelta. El PT4 consite en realizar un movimiento de ida y vuelta desde la esquina inferior izquierda hasta la superior derecha del monitor.

Y

250

B X Eje Y

200 150 100

A

50 −100

(a) Imagen en el monitor para el patr´ on 4. El eje Z sale de la pantalla hacia nosotros.

0 Eje X

100

200

(b) Trayectoria seguida por un paciente de Esencial.

Figura 2.18: Patr´ on 4. Los siguientes dos patrones son simetr´ıas de los patrones tres y cuatro. El patr´on cinco, PT5(figura 2.19), es el sim´etrico respecto del eje X al PT4.

250 A

Eje Y

200 150 100 Y

B

50

X −200

(a) Imagen en el monitor para el patr´ on 5. El eje Z sale de la pantalla hacia nosotros.

−100

0

100

Eje X

(b) Trayectoria seguida por un paciente de Parkinson.

Figura 2.19: Patr´ on 5. El patr´ on seis, PT6 (figura 2.20) consiste en ir de abajo hacia arriba, con velocidad constante, y de arriba hacia abajo para completar el movimiento. Nota 2: Frecuencia de ejecuci´ on de los patrones cuatro y siete Concretamente el patr´ on cuatro, de la misma forma que el patr´on siete, no ha sido realizado con la mayor´ıa de los pacientes, al igual que los patrones doce y catorce. El cuatro por ser redundante con el patr´ on PT5, y los patrones doce y catorce por ser similares al patr´on trece.

2.4 - Descripci´ on de los datos

27

250 B

Eje Y

200

Y

150 100 50

X

A 0

(a) Imagen en el monitor para el patr´ on 6. El eje Z sale de la pantalla hacia nosotros.

−100

0 Eje X

100

(b) Trayectoria seguida por un paciente de Parkinson.

Figura 2.20: Patr´ on 6. Como se ha explicado, los patrones PT7, PT8, PT9, PT10 y PT11 son patrones circulares, espirales y sinusoidales. En ellos el paciente tiene que seguir, una vez m´as, la trayectoria que se le muestra en el monitor. En las figuras 2.21a, 2.22a, 2.23a, 2.24a y 2.25a se pueden ver las trayectorias ideales que deben seguir los pacientes para cada patr´ on. N´otese que, al igual que en el caso del patr´on PT4, la trayectoria mostrada para el PT7 es de un enfermo de temblor esencial. 250

Eje Y

200 150 100 Y 50

X

−100 −50

(a) Imagen en el monitor para el patr´ on 7. El eje Z sale de la pantalla hacia nosotros.

0 50 Eje X

100

150

(b) Trayectoria seguida por un paciente de Esencial.

Figura 2.21: Patr´ on 7. Los patrones PT12, PT13 y PT14 se realizan sobre un dispositivo colocado sobre la mesa, de manera que el ordenador de control solo sirve para registrar los datos adquiridos por el Phantom, sin mostrar nada por el monitor. N´ otese aqu´ı tambi´en que los patrones PT12 y PT14 no corresponden a un paciente de Parkinson, sino a uno de temblor esencial. Este dispositivo (v´ease cualquiera de las figuras 2.26a, 2.27a o 2.28a) consiste en una tabla perforada con dos varillas que se pueden colocar en distintas posiciones gracias a los agujeros practicados sobre ella en distintas posiciones. Las varillas est´an unidas por una goma el´astica que se puede colocar en distintos lugares a lo largo de las varillas. Por ejemplo, una posible configuraci´on seria colocar las varillas en esquinas opuestas y se unen con la goma el punto m´as alto de una con el m´as bajo de la otra. De esta manera, la trayectoria descrita por el dedo del paciente tendr´a componentes considerables en las tres direcciones del espacio, y no solo en dos como es el caso de los patrones de seguimiento de un camino en el monitor. Estos patrones permiten obtener m´as informaci´on que los anteriores, aunque las pruebas PT12 y PT14 no ha sido com´ un realizarlas con la mayor´ıa de los pacientes.

28

Cap´ıtulo 2 - Introducci´ on

Eje Y

200

150

100 Y X

50

(a) Imagen en el monitor para el patr´ on 8. El eje Z sale de la pantalla hacia nosotros.

−100

−50

0 Eje X

50

100

(b) Trayectoria seguida por un paciente de Parkinson.

Figura 2.22: Patr´ on 8.

Eje Y

200

150

100 Y X

50 −100

(a) Imagen en el monitor para el patr´ on 9. El eje Z sale de la pantalla hacia nosotros.

−50

0 Eje X

50

100

(b) Trayectoria seguida por un paciente de Parkinson.

Figura 2.23: Patr´ on 9. 300

B A

Eje Y

200

100

Y 0

X

−200

(a) Imagen en el monitor para el patr´ on 10. El eje Z sale de la pantalla hacia nosotros.

−100 0 Eje X

100

(b) Trayectoria seguida por un paciente de Parkinson.

Figura 2.24: Patr´ on 10.

2.4 - Descripci´ on de los datos

29

B

A

Eje Y

200

100

Y 0

X

−200

(a) Imagen en el monitor para el patr´ on 11. El eje Z sale de la pantalla hacia nosotros.

−100 0 Eje X

100

(b) Trayectoria seguida por un paciente de Parkinson.

Figura 2.25: Patr´ on 11.

Eje Z

60

50

40 Z Y

150

X

0

(a) Modelo de la mesa de pruebas tridimensionales.

Eje Y

140

−100

100 Eje X

(b) Trayectoria seguida por un paciente de Esencial.

Figura 2.26: Patr´ on 12.

Eje Z

100

0

Z Y

300

X

200

(a) Modelo de la mesa de pruebas tridimensionales.

Eje Y

0 100

−100

100 Eje X

(b) Trayectoria seguida por un paciente de Parkinson.

Figura 2.27: Patr´ on 13.

30

Cap´ıtulo 2 - Introducci´ on

Eje Z

100

0 Z Y

X

200

(a) Modelo de la mesa de pruebas tridimensionales.

100

0 −100

Eje Y

Eje X

(b) Trayectoria seguida por un paciente de Esencial.

Figura 2.28: Patr´ on 14. Pruebas din´ amicas Los patrones din´ amicos, como se ha explicado m´as arriba, consisten en la realizaci´on de algunas de las pruebas anteriores, pero aplicando sobre el paciente una fuerza comandada por el ordenador de control. Esta fuerza se aplica con el fin de dificultar la realizaci´on del ejercicio, pidi´endosele al paciente realizar un mayor esfuerzo para realizarla. Como se vio en el cap´ıtulo anterior, el temblor parkinsoniano se caracteriza por manifestarse sobre todo cuando el individuo se encuentra en reposo, por lo que al aparecer una componente intencionada en el movimiento reduce la potencia del temblor (se ver´a m´as adelante que esto tiene una consecuencia directa en el espectro de la se˜ nal, desapareciendo el m´aximo local correspondiente a la frecuencia del temblor a medida que la prueba va requiriendo de un esfuerzo mayor por parte del paciente). Los patrones din´ amicos abarcan desde el patr´on PT15 al patr´on PT18. Como se puede ver en el pie de cada figura, estos patrones son iguales que los PT1, PT3 y PT8.

Eje Y

145

140

Y X

(a) Imagen en el monitor para el patr´ on 15. El eje Z sale de la pantalla hacia nosotros.

135 −5

0 Eje X

5

(b) Trayectoria seguida por un paciente de Parkinson, ~ = (Fx , Fy , Fz ). pero aplic´ andosele una fuerza F

Figura 2.29: Patr´ on 15. Es igual que el patr´ on 1 (figura 2.15), pero con una fuerza oponi´endose al reposo del paciente. Como se puede ver en la figura 2.29b, la respuesta de este paciente de Parkinson produce oscilaciones de unos 5mm, mientras que la respuesta del mismo paciente sin aplicar ninguna fuerza sobre ´el produce oscilaciones (temblor) de entre 10 y 15 mil´ımetros (ver figura 2.15b).

2.5 - Proceso general

31

250

A

B

Eje Y

200 150 100 Y

50 X

−100

(a) Imagen en el monitor para el patr´ on 16. El eje Z sale de la pantalla hacia nosotros.

0 Eje X

100

(b) Trayectoria seguida por un paciente de Parkinson, ~ = (Fx , Fy , Fz ). pero aplic´ andosele una fuerza F

Figura 2.30: Patr´ on 16. Igual que el patron 3 (figura 2.17), pero con fuerza.

250

A

B

Eje Y

200 150 100 50

Y X

(a) Imagen en el monitor para el patr´ on 17. El eje Z sale de la pantalla hacia nosotros.

0 −100

0 Eje X

100

(b) Trayectoria seguida por un paciente de Parkinson, ~ = (Fx , Fy , Fz ). pero aplic´ andosele una fuerza F

Figura 2.31: Patr´ on 17. Igual que el patr´ on 16 (figura 2.30), pero aplicando una fuerza distinta. En la tabla C.1 se muestra un resumen del n´ umero de veces que se realizaron las pruebas en total para cada una de las enfermedades. La frecuencia es distinta debido al n´ umero heterog´eneo de pacientes que hab´ıa de cada tipo y a diversos motivos que causaron el aborto de las pruebas.

2.5.

Proceso general

En esta secci´ on se trata de exponer de manera general, las distintas fases de las que se compone este trabajo. Esta explicaci´ on puede complementarse con el diagrama de flujo de la figura 2.33. La notaci´ on que se emplear´ a de ahora en adelante para la representaci´on del flujo del proyecto es la siguiente: Datos: Pueden ser de dos tipos: datos externos, representados mediante una especie de bandera de fondo blanco, como ‘‘Pruebas de los pacientes’’ en la figura 2.33, y datos internos o bases de datos creadas tras el procesamiento de las se˜ nales y la caracterizaci´on del temblor, representadas por cilindros blancos, como ‘‘Base de datos de trayectorias’’ en la misma figura. Los datos se inyectan y se extraen de las etapas, indic´ andolo mediante flechas amarillas. Etapas inicial y final: Se representan mediante cajas redondeadas de color naranja (etapa inicial) y verde (etapa final). Solo aparecen en la visi´on general, pues en las etapas intermedias se viene y se desemboca de etapas intermedias.

32

Cap´ıtulo 2 - Introducci´ on

Eje Y

200

150

100 Y X

−100

(a) Imagen en el monitor para el patr´ on 18. El eje Z sale de la pantalla hacia nosotros.

−50

0 Eje X

50

(b) Trayectoria seguida por un paciente de Parkinson, ~ = (Fx , Fy , Fz ). pero aplic´ andosele una fuerza F

Figura 2.32: Patr´ on 18. Igual que el patron 8 (figura 2.22), pero con fuerza. Macroetapas: Son las etapas que se ven desde el diagrama de flujo general. Se representan con cajas azules, y el paso de una macroetapa a otra se indica con flechas del mismo color. Etapas internas: En la figura 2.33 no se ve ninguna, pues est´an encapsuladas, pero el cap´ıtulos posteriores se encontrar´ an los diagramas de flujo de cada una de las macroetapas, como en la figura 3.1 del cap´ıtulo 3 (p´ ag. 38). Las etapas internas, como se ver´a, se representan con cajas amarillas con dos bandas verticales de color crema. Explicada la notaci´ on, el procedimiento se expone a continuaci´on. En primer lugar, se tienen que adquirir los datos de los pacientes. Como se ha visto en las secciones anteriores, esto se llev´ o a cabo hace unos a˜ nos en el hospital Ram´on y Cajal mediante el sistema Dimeter® . El ‘‘problema’’ es que este sistema escrib´ıa los datos en ficheros con extensi´on .txt, y resulta bastante engorroso trabajar con este tipo de archivos cuando el sistema con el que se analizan los datos que ´estos contienen es Matlab® . Por ello, se ha implementado un algoritmo recursivo que extrae el contenido de los ficheros y los guarda de manera ordenada en una estructura que sirva posteriormente para extraer los datos de manera mucho m´ as r´apida e intuitiva que por la navegaci´on por directorios. Esta estructura se tratar´ a como si fuera una base de datos, y se salvar´a desde el Workspace de Matlab® en un directorio del PC. A continuaci´ on se emplear´ an estos datos para realizar un an´ alisis espectral de las series temporales que representan los datos de la estructura. Gracias a este an´alisis espectral se podr´an calcular los par´ ametros m´ as ajustados de un filtro con el que eliminar la baja frecuencia relacionada con el movimiento voluntario, para quedarnos u ´nicamente con las frecuencias interesantes relacionadas con el temblor t´ıpico de las enfermedades de Parkinson y temblor esencial. Una vez se han calculado los mejores par´ ametros para el filtro, se utilizar´an tanto las series temporales filtradas (a las que llamaremos evoluci´ on de la componente temblorosa con el tiempo, o evoluci´on del vector temblor) como el espectro asociado a este la evoluci´on de este vector temblor para extraer algunas caracter´ısticas relacionadas con la teor´ıa de an´alisis de la se˜ nal. Se ver´ a que se llegar´ an a extraer m´ as de treinta caracter´ısticas de una sola trayectoria filtrada (estaremos en un espacio IRp ), y puesto que el n´ umero de muestras es reducido (unas mil en total), habr´a que encontrar la manera de reducir la dimensi´ on del espacio de caracter´ısticas en el que se encuentra nuestro conjunto de vectores Cb ∈ IRp para que el diagn´ostico pueda dar resultados estad´ısticamente v´alidos (llevar´ıamos nuestro espacio de dimensi´ on p a un espacio de dimensi´on m, con m < p), es decir, llevar nuestro conjunto de datos Cb ∈ IRp a IRm   f : Cb ∈ IRp −→ C ∈ IRm

siendo la aplicaci´ on f el m´etodo buscado.

m P SD(ωk ), ∀k 6= m

(5.20)

Las caracter´ısticas relacionadas con lo momentos del PSDse basan en la definici´on del momento de orden r respecto de la media como. Definici´ on 7. Momento de orden r respecto de c Sea la esperanza de una variable aleatoria discreta y finita X la funci´ on E {X} =

K X

con pk = P {X = xk }

xk pk

k=1

(5.21)

Se define momento de orden r (∀r ∈ IN) respecto de c de una variable aleatoria X, denotado por µr al n´ umero K X r (xk − c) P {X = xk } (5.22) µr = E {(X − c)r } = k=1

1 Cuando las realizaciones de una v. a. tienen la misma probabilidad de suceder la P {X = xk } = , K y quedar´ a por tanto µr = E {(X − c)r } =

K 1 X r (xk − c) K

(5.23)

k=1

Definido esto, la caracteristica tres se refiere al momento de orden uno respecto del origen, es decir, a la media: c3 = m1 (P SD) , µ =

K 1 X (P SD [k]) K

(5.24)

k=1

La caracter´ıstica cuatro se refiere al momento de orden dos despecto a la media, es decir, c = m1 = µ:

c4 = m2 (P SD) , σ 2 =

K 1 X 2 (P SD [k]) K

(5.25)

k=1

La caracteristica cinco se refiere a al momento de orden cuatro respecto de la media y normalizado, es 1 decir, c = µ y se pondera por 4 . Este momento se denomina kurtosis, y da una idea de si la dispersi´ on se σ debe a pocos valores muy alejados de la media (en cuyo caso tomar´a valores grandes) o a una desviaci´ on frecuente pero modesta (donde tomar´ a valores bajos).

1 c5 = m4 (P SD) , K

K P

k=1

4

(P SD [k] − µ) σ4

(5.26)

72

Cap´ıtulo 5 - Caracterizaci´ on del temblor

La caracteristica nueve se refiere al momento de orden cinco centrado en el origen, simplemente:

c9 = m5 (P SD) ,

K 1 X 5 (P SD [k]) K

(5.27)

k=1

´ En este proyecto se ha a˜ nadido una nueva caracter´ıstica relacionada con la PSD. Esta se refiere a c´ omo de asim´etrica es respecto de la media, es decir, si comparada con una normal con la misma media los valores tienden m´ as hacia la derecha (asimetr´ıa positiva) o hacia la izquierda (asimetr´ıa negativa) Hay que tener en cuenta que el ejemplo que se ha propuesto no es el m´as indicado para justificar la creaci´on de esta caracteristica. Distribuci´ on normal

Distribuci´on con asimetr´ıa negativa

Distribuci´on con asimetr´ıa positiva

Figura 5.7: Tipos de distribuciones. La PSD de la se˜ nal temblorosa tiene, por lo general, una forma de distribuci´on normal estirada hacia la derecha. A esta forma se la dice que tiene una ‘‘cola’’ hacia la derecha y, por tanto, su coeficiente de asimetr´ıa ser´ a positivo. El objetivo que se pretende alcanzar con esta caracter´ıstica es determinar si la PSD est´ a muy aplastada hacia la derecha (en cuyo caso la potencia dominante no ser´a tan dominante) o si por el contrario presenta un bajo coeficiente de asimetr´ıa, lo que significar´ıa que las frecuencias altas apenas aportan energ´ıa a la se˜ nal, mientras que la potencia dominante est´a concentrada alrededor del m´ aximo. As´ı, se define el coeficiente de asimetr´ıa como

c37

1 = m3 (P SD) , K

K P

k=1

3

(P SD [k] − µ) σ3

nueva

(5.28)

En cuanto a las caracter´ısticas relacionadas con el n´ umero de muestras que se encuentran por encima de un valor determinado, se tomar´ a dicho valor como el m´aximo, y se calcular´a el porcentaje de muestras que cumplen esta condici´ on. Definici´ on 8. Funci´ on superior a un umbral ψ Sea la serie {xk }, con k = 1, . . . , K definida en IR. Se define la aplicaci´ on s : IR −→ B = {0, 1} como ( 1 s (xk , ψ) = 0

si xk ≥ ψ si xk < ψ

(5.29)

Por lo que al aplicar s sobre todos los elementos de {xk } se obtendr´ a una serie {Sk } con ceros y unos. Las caracter´ısticas son:

c6 = N0,72 % (P SD) ,

K 1 X s (P SD, ψ) , K k=1

con ψ = 7,2 · 10−3 m´ax (P SD)

(5.30)

5.5 - Caracter´ısticas relacionadas con el BIS

73

K 1 X c7 = N2,42 % (P SD) , s (P SD, ψ) , K

con ψ = 2,42 · 10−2 m´ax (P SD)

(5.31)

K 1 X s (P SD, ψ) , K

con ψ = 95,3 · 10−2 m´ax (P SD)

(5.32)

k=1

c8 = N95,3 % (P SD) ,

k=1

N´ otese que en estos tres u ´ltimos casos, la aplicaci´on cj , con j = 6, 7, 8 tiene como imagen el cuerpo IN.

5.5. 5.5.1.

Caracter´ısticas relacionadas con el BIS El biespectro (BIS)

El biespectro es otro caso particular del poliespectro. Actualmente se emplea en diferentes campos como la detecci´ on de periodicidades, detecci´on de no linearidades, recuperaci´on de fase de una se˜ nal y en el estudio de se˜ nales de vibraci´ on. Este es el caso que aporta mayor inter´es en este proyecto. Al igual que para el PSD, el biespectro puede estimarse tanto de forma param´etrica (a partir de los modelos AR, MA y ARMA de la se˜ nal), o de manera no param´etrica, a partir de la definici´on matem´ atica del mismo. En este trabajo se usar´ a este u ´ltimo m´etodo. Como se vio en el caso del PSD, la estimaci´on no param´etrica tiene la restricci´on del tama˜ no de las series de datos. Definici´ on El biespectro es por definici´ on la transformada de Fourier bidimensional de estad´ısticas de tercer orden [Vi˜ nas, 2003], esto es: BIS(ω1 , ω2 ) =

∞ X

∞ X

c3,x (τ1 , τ2 ) e−j (

ω1 τ1 +ω2 τ2 K

)

(5.33)

τ1 =−∞ τ2 =−∞

Donde c3,x = E {x(t)x(t + τ1 )x(t + τ2 )}. Si consideramos solo las K muestras de la serie:

BIS(ω1 , ω2 ) =

K−1 X K−1 X

c3,x (n, m) e−j(ω1 n+ω2 m)

n=0 m=0

=

K−1 K−1 K−1 ω1 n+ω2 m 1 X X X x(i)x(i + n)x(i + m)e−j ( K ) K n=0 m=0 i=0

(5.34)

= F (ω1 )F (ω2 )F ∗ (ω1 + ω2 ) Propiedades e intereses

El biespectro representa la contribuci´on del producto medio de tres componentes de Fourier, donde una de ellas es igual a la suma de las otras dos. De igual manera que la PSD descompon´ıa la potencia de una se˜ nal, el biespectro descompone el momento de tercer orden, es decir, la asimetr´ıa de la se˜ nal, al analizar las interacciones en frecuencia de ω1 , ω2 y ω1 + ω2 . En general el Biespectro es una cantidad compleja, pero a lo largo de este proyecto se considerar´a u ´nicamente la magnitud de la misma: BIS(ω1 , ω2 ) = |BIS(ω1 , ω2 )|

(5.35)

74

Cap´ıtulo 5 - Caracterizaci´ on del temblor

Por otra parte, y esto es importante a la hora de realizar la computaci´on, el biespectro tiene doce simetr´ıas, que se corresponden con [Vi˜ nas, 2003]: BIS(ω1 , ω2 ) = BIS(ω2 , ω1 ) = BIS(−ω1 − ω2 , ω2 ) = BIS(ω2 , −ω1 − ω2 )

= BIS(−ω1 − ω2 , ω1 ) = BIS(ω1 , −ω1 − ω2 )

= BIS(−ω1 , ω1 + ω2 ) = BIS(ω1 + ω2 , −ω1 )

(5.36)

= BIS(−ω2 , ω1 + ω2 ) = BIS(ω1 + ω2 , −ω2 ) = BIS(−ω2 , −ω1 ) = BIS(−ω1 , −ω2 )

De esta manera, conociendo el biespectro en la regi´on triangular definida por ω2 ≥ 0, ω1 ≥ ω2 , fs ω2 + 2 · ω1 ≤ 2π , para un proceso muestreado a fs , se pueden obtener las once regiones restantes del 2 biespectro [Vi˜ nas, 2003]. Otra propiedad muy interesante es el acoplamiento de fase cuadr´atico, que consiste en la interacci´on de dos componentes arm´ onicos de un proceso. Interpretaci´ on La forma del biespectro es de alguna manera una ayuda para la intuici´on. El BIS puede ser distinto de cero en dos frecuencias ω1 y ω2 si la componente de la suma de estas frecuencias en la transformada de fourier F (ω1 + ω2 ) es dependiente del producto F (ω1 )F (ω2 ), esto es, las dos frecuencias deben acoplarse a trav´es de su suma. Por ello, los valores no nulos del biespectro se deber´an a la dependencia de las frecuencias a las que estos valores se dan, y ser´an tanto mayores cuanto mayor sea el acoplamiento (dependencia) [Wolinsky, 1988]. Como se puede comprobar en la figura 5.8, los valores de la magnitud del BIS son tanto mayores cuanto m´ as importante sea el acoplamiento entre los arm´onicos de la se˜ nal. As´ı, por ejemplo se tiene un ω m´ aximo en (f1 , f2 ) = (10, 10), con f = , y en todas sus correspondientes once simetr´ıas restantes. 2π Adem´ as, se puede comprobar que en la se˜ nal se produce un acoplamiento entre se˜ nales de 10 y 20 Hz, as´ı como entre las se˜ nales 10 y 30 Hz y 20 y 30 Hz, aunque con menor magnitud. El acoplamiento entre las se˜ nales de 10 y 30 Hz se da de manera bastante m´as d´ebil que entre las dos de mayor amplitud, por lo que aparece en colores m´ as claros. Un aspecto interesante es que en el biespectro podemos encontrar informaci´on que no conseguir´ıamos si u ´nicamente observaramos el PSD. As´ı, si observamos la figura 5.9, al aumentar el ruido el PSD apenas var´ıa, mientras que en el BIS aparecen valores distintos de cero con indicando acoplamientos entre las tres componentes de nuestra se˜ nal y los arm´ onicos del ruido.

5.5.2.

C´ alculo del BIS

De manera an´ aloga con que se oper´ o en el m´etodo de Welch, se puede construir una estimaci´on del biespectro por un conjunto de S segmentos de tama˜ no M , con un solape de Ω [ %] = 1 −

K S

· 100 (5.37) M En este proyecto se ha escogido un tama˜ no de ventana M tal que se divida la serie en ocho segmentos, y tantas ventanas como sea necesario para obtener un solape de aproximadamente el 50 %:     1   S=  1 M 1− Ω K

(5.38)

donde el operador [•] representa la parte entera. Para ello se utilizar´ a la funci´ on [BIS, f] = bispecd (y, NFFT, [], M,Ω) de la toolbox de an´alisis de se˜ nal de Matlab® ., donde el tercer campo se deja el valor por defecto (se trata de un par´ametro para ajustar el suavizamiento en el dominio frecuencial), y NFFT representa el n´ umero de muestras del que va a estar formado el dominio frecuencial de la se˜ nal.

5.5- -Caracter´ Caracter´ ısticasrelacionadas relacionadascon conelelBIS BIS 5.5 ısticas

75 75 Biespectro

50 40 30 20

f2

10 0 −10 −20 −30 −40 −50 −50

−40

−30

−20

−10

0 f1

10

20

30

40

50

Figura nal Figura5.8: 5.8:Biespectro Biespectrodedelalase˜ se˜ naldefinida definidapor port(t) t(t)==3 3sen sen(2πf (2πf· t)+2 · t)+2sen sen(2πf (2πf· 2t)+sen · 2t)+sen(2πf (2πf· ·3t)+n(t), 3t)+n(t), con f = 10Hz. con f = 10Hz.

5.5.3. Definici´ on de las caracter´ısticas 5.5.3. Definici´ on de las caracter´ısticas Explicado el concepto de biespectro y el objetivo que se pretende alcanzar con su utilizaci´ on, podemos el caracter´ conceptoısticas de biespectro y el objetivo que seEsta pretende alcanzar con utilizaci´ on,conjunto podemos pasarExplicado a definir las relacionadas con el mismo. vez tendremos que su encontrar un pasar a definir las caracter´ ısticas relacionadas con el mismo. Esta vez tendremos que encontrar un conjunto de funciones cj que nos permitan obtener un n´ umero con el que caracterizar los valores del biespectro y, de funciones c que nos permitan obtener un n´ u mero con el que caracterizar los valores del biespectro y, j temporal de la que se ha obtenido. Est es: por ende, la serie por ende, la serie temporal de la que se ha obtenido. Est es: F {t(t)}

BIS(F (ω))

cj (BIS(ω1 ,ω2 ))

−−−−(ω)) −→ BIS(ω1 , ω2 ) ∈ CK×K −−−− −−−−− −−−→ xj ∈ ℵ t(t) ∈ IRK −−−− −{t(t)} −−−→ F (ω) ∈ CK −−− cj− (BIS(ω F BIS(F 1 ,ω2 )) K K t(t) ∈ IR −−−−−−−−→ F (ω) ∈ C −−−−−−−−→ BIS(ω1 , ω2 ) ∈ CK×K −−−−−−−−−−−−−→ xj ∈ ℵ con ℵ = IR, IN Las caracteristicas con ℵ = IR, IN que se han definido a partir del biespectro son, al igual que con el PSD, nueve. Cuatro de ellas est´an relacionadas con la suma de los valores de la magnitud del biespectro (bien sea solo Las caracteristicas que se han definido a partir del biespectro son, al igual que con el PSD, nueve. los valores de la diagonal, o los valores de la matriz entera). Otras tres caracter´ısticas est´ an relacionadas Cuatro de ellas est´ an relacionadas con la suma de los valores de la magnitud del biespectro (bien sea solo con los momentos de la diagonal del biespectro, y las otras dos caracter´ısticas con el n´ umero de muestras los valores de la diagonal, o los valores de la matriz entera). Otras tres caracter´ısticas est´an relacionadas que est´ an por encima de un valor umbral. con los momentos de la diagonal del biespectro, y las otras dos caracter´ısticas con el n´ umero de muestras La notaci´on de las caracter´ısticas seguir´ a la secuencia que se termin´ o en el PSD (sin contar la nueva que est´ an por encima de un valor umbral. definici´ on de la c37 ). La notaci´ on de las caracter´ısticas seguir´a la secuencia que se termin´o en el PSD (sin contar la nueva La primera caracter´ıstica del biespectro se basa en la diagonal del biespectro. definici´ on de la c37 ). Definici´ on 9. Diagonal del biespectro La primera caracter´ıstica del biespectro se basa en la diagonal del biespectro. Sea A la matriz cuadrada definida sobre los complejos, A ∈ CK×K . Se define la aplicaci´ on diag : K×K n K9. Diagonal del biespectro CDefinici´ −→oC K×K . Se define la aplicaci´ on diag : Sea A la matriz cuadrada definida sobre los  complejos, A ∈ C K×K K C −→ C diag (A) = A11 · · · AKK (5.39)  de la diagonal de la matriz A para crear un vector como la on de extracci´ on de los elementos  aplicaci´  diag (A) = A11 · · · AKK (5.39) fila δA = A11 · · · AKK = diag (A)

76 76

Cap´ıtulo 5 - Caracterizaci´ on del temblor Cap´ıtulo 5 - Caracterizaci´ on del temblor 10

5

t(t)

t(t)

5 0

0 −5

−5 0

5 · 10−2

0,1

0,15

−10

0,2

0

0 −1 −2 −3 10

20 30 f (Hz)

40

0,2

t (s)

0 −0,5 −1 0

10

20 30 f (Hz)

40

50

(d) PSD de t(t) con n(t) ∈ (0, 10)

40

40

20

20

0

0

f2

f2

0,15

0,5

50

(c) PSD de t(t) con n(t) ∈ (0, 1)

−20

−20

−40

−40 −40

0,1

(b) t(t) con n(t) ∈ (0, 10) Potencia/frecuencia (dB/Hz)

Potencia/frecuencia (dB/Hz)

(a) t(t) con n(t) ∈ (0, 1)

0

5 · 10−2

t (s)

−20

−40

20 40 0 f1 (e) Biespectro de t(t) con n(t) ∈ (0, 1)

−20

0 20 40 f1 (f ) Biespectro de t(t) con n(t) ∈ (0, 10)

Figura 5.9: 5.9: Comparaci´ Comparaci´ o oonn aportada Figura on n entre entre la la informaci´ informaci´ aportadapor porelelPSD PSDyyelelBIS BIS Concretamente se refiere a la suma de los elementos de la diagonal del biespectro: como la on de extracci´ on de los elementos de la diagonal de la matriz A para crear un vector  aplicaci´  fila δA = A11 · · · AKK = diag (A) K X c10 = S (diag|bisp) = diag (BIS) (5.40) k=1 Concretamente se refiere a la suma de los elementos de la diagonal del biespectro: La caracter´ıstica n´ umero once se refiere a la suma de los elementos de la matriz del biespectro (de su magnitud) entera, es decir. K X c10 = S (diag|bisp) = diag (BIS) (5.40) K k=1 K X X c11 = S (|bisp|) = BISk1 k2 (5.41) k1 =1 k2 =1

La caracter´ıstica n´ umero once se refiere a la suma de los elementos de la matriz del biespectro (de su

5.6 - Caracter´ısticas relacionadas con el BIS

77

magnitud) entera, es decir.

c11 = S (|bisp|) =

K X K X

BISk1 k2

(5.41)

k1 =1 k2 =1

La caracter´ıstica doce es similar a la nueve, salvo que esta vez se suman los valores de los logaritmos en base diez de los elementos de la diagonal del biespectro

c12 = S (log (diag|bisp)) ,

K X

log (diag (BIS))

(5.42)

k=1

Y la caracter´ıstica trece consiste en la suma de los valores de los logaritmos de los elementos del biespectro

c13 = S (|bisp|) ,

K X K X

log (BISk1 k2 )

(5.43)

k1 =1 k2 =1

Respecto de las caracter´ısticas relacionadas con los momentos, la catorce es el momento de orden uno respecto del origen de la diagonal del biespectro, la quince el momento de orden dos respecto de la media (varianza) de la diagonal del biespectro, y la caracteristica diecis´eis el momento de orden uno respecto del origen de los logaritmos de la diagonal del biespectro:

c14 = m1 (diag|bisp) , µ =

K 1 X δBIS [k] K

(5.44)

k=1

c15 = m2 (diag|bisp) , σ 2 =

K 1 X 2 (δBIS [k]) K

(5.45)

k=1

c16 = m1 (diag|bisp) , µ =

K 1 X log (δBIS [k]) K

(5.46)

k=1

Finalmente, las caracteristicas veintid´os y veintitr´es se refieren al n´ umero de muestras que est´ an por encima de un umbral:

c22

K 1 X = N0,29 % (diag|bisp) , s (diag (BIS) , ψ) , con ψ = 2,9 · 10−3 m´ax (diag (BIS)) K

(5.47)

k=1

c23 = N4,3 % (diag|bisp) ,

K 1 X s (diag (BIS) , ψ) , con ψ = 4,3 · 10−2 m´ax (diag (BIS)) K k=1

(5.48)

78

Cap´ıtulo 5 - Caracterizaci´ on del temblor

5.6.

Caracter´ısticas relacionadas con el TRIS

5.6.1.

El triespectro (TRIS)

Un an´ alisis similar aplicado a los cumulantes de cuarto orden nos lleva a la definici´on del triespectro de una se˜ nal: T RIS(ω1 , ω2 , ω3 ) =

∞ X

∞ X

∞ X

c4,x (τ1 , τ2 , τ3 ) e−j (

ω1 τ1 +ω2 τ2 +ω3 τ3 K

)

(5.49)

τ1 =−∞ τ2 =−∞ τ3 =−∞

Donde [Vi˜ nas, 2003]:

c4,x = E {x(t)x(t + τ1 )x(t + τ2 )x(t + τ3 )} − E {x(t)x(t + τ1 )} E {x(t + τ2 )x(t + τ3 )} −

− E {x(t)x(t + τ2 )} E {x(t + τ1 )x(t + τ3 )} − E {x(t)x(t + τ3 )} E {x(t + τ1 )x(t + τ2 )}

para un proceso de media cero. Si consideramos solo las K muestras de la serie, y desarrollando [Collis et al., 1998], obtenemos : T RIS(ω1 , ω2 , ω3 ) = F (ω1 )F (ω2 )F (ω3 )F ∗ (ω1 + ω2 + ω3 )

(5.50)

Propiedades, intereses e interpretaci´ on Al igual que en el caso del biespectro, se puede extrapolar la idea de que el triespectro tendr´a valor no nulo en (ω1 , ω1 , ω1 ) en el caso de que ω2 = 3ω1 , pero no solo ah´ı, pues si ω1 = −ω2 , el triespectro tambi´en ser´ a no nulo las correspondientes simetr´ıas y permutaciones de las frecuencias. Como dato remarcable, el triespectro tiene 96 simetr´ıas, hecho interesante a la hora de calcularlo computacionalmente. Las t´ecnicas aplicadas para la estimaci´ on del triespectro consisten b´asicamente en lo mismo que para la estimaci´ on de la PSD o del BIS. Hay dos maneras no param´etricas, a saber, el m´etodo indirecto, basado en la estimaci´ on del cumulante y tomando la transformada de Fourier, y el m´etodo directo, basado en la aproximaci´ on por media de segmentos. En el caso del triespectro, sacrificaremos la varianza estad´ıstica de la estimaci´ on, y aplicaremos el m´etodo indirecto, pues para obtener un triespectro a partir de una transformada discreta de Fourier de 64 muestras, har´ıan falta segmentos de 643 muestras de largo [Collis et al., 1998], y no disponemos de estas series temporales. En cuanto a la interpretaci´ on, el mayor problema se produce cuando se intenta visualizar el m´odulo del triespectro, pues se trata de una funci´ on definida sobre IR3 , por lo que se requiere un espacio de cuatro dimensiones para poder visualizarlo. En este trabajo se intent´o visualizar con proyecciones sobre planos definidos en IR3 , pero finalmente ha resultado mejor presentarlo como esferas de color y tama˜ no proporcionales al m´ odulo del triespectro en la coordenada f1 , f2 , f3 . En la figura 5.10 se puede observar el octante correspondiente a las frecuencias positivas de IR3 . Los otros siete octantes son sim´etricos de ´este. Como se puede ver, las esferas m´as grandes y m´as oscuras se dan en los puntos cuyas coordenadas corresponden a los arm´onicos de mayor importancia, y a las interacciones lineales y no lineales entre ellos. En el caso del biespectro, cuando ocurr´ıa un acoplamiento cuadratico de fase, las fases de las componentes a frecuencias f y 2f est´ an correladas. Por ello, cuando en la imagen 5.8 los mayores valores se daban en las simetr´ıas correspondientes a (f1 , f2 ) = (10, 20), significaba que se estaba produciendo un acoplamiento cuadr´ atico de fase. Este tipo de acoplamiento se debe a interacciones no lineales y a veces resulta interesante saber si los picos detectados en el PSD manifiestan una interacci´on o no. Debido a que el PSD carece de informaci´ on de fase, se emplean los estad´ısticos de orden superior para detectarlo. En el caso del triespectro, una serie de efectos tienen lugar a medida que la magnitud de las no linearidades aumenta [Collis et al., 1998]: La frecuencia de resonancia del sistema aumenta El pico de resonancia se ensancha Cuando una no linearidad se introduce, la kurtosis de la PSD del sistema disminuye (recu´erdese que la kurtosis se refiere al motivo de la variabilidad: valores grandes para pocas muestras muy desviadas y valores peque˜ nos para desviaciones peque˜ nas pero frecuentes), volvi´endose platic´ urtico (leptoc´ urtico cuando la kurtosis es peque˜ na). Esto se debe a que el sistema (la mano, el temblor) se vuelve m´as r´ıgido, resistiendo m´ as las variaciones en el movimiento [Collis et al., 1998].

planos definidos en IR3 , pero finalmente ha resultado mejor presentarlo como esferas de color y tama˜ no proporcionales al m´odulo del triespectro en la coordenada f1 , f2 , f3 . En la figura 5.10 se puede observar el octante correspondiente a las frecuencias positivas de IR3 . Los otros siete octantes son sim´etricos de ´este. Como se puede ver, las esferas m´as grandes y m´as oscuras dan en los puntos cuyas coordenadas corresponden a los arm´onicos de mayor importancia, y a las 5.6 se - Caracter´ ısticas relacionadas con el TRIS interacciones lineales y no lineales entre ellos.

79

Triespectro

50

f3

40 30 20 10 0 50

40

30 f2

20

10

10

0 0

30

20

40

50

f1

Figura 5.10: Triespectro de la se˜ nal definida por y = 3 sen (2πf · x) + 2 sen (2πf · 2x) + sen (2πf · 3x) +

Figura 5.10: Triespectro de la se˜ nal definida por y = 3 sen (2πf · x) + 2 sen (2πf · 2x) + sen (2πf · 3x) + n(t), con f = 10Hz. n(t), con f = 10Hz. En el caso del biespectro, cuando ocurr´ıa un acoplamiento cuadratico de fase, las fases de las componentes a frecuencias f y 2f est´an correladas. Por ello, cuando en la imagen 5.8 los mayores valores se 5.6.2. on las caracter´ daban Definici´ en las simetr´ ıas de correspondientes a (fısticas 1 , f2 ) = (10, 20), significaba que se estaba produciendo un acoplamiento cuadr´ a tico de fase. Este tipo de acoplamiento se debe a a las interacciones no lineales yaas veces Las caracteristicas relacionadas con el triespectro son similares del biespectro. Lo m´ importante resulta interesante saber si los picos detectados en el PSD manifiestan una interacci´on o no. Debido a es que hay que tener en cuenta que el biespectro es una matriz tridimensional, es decir: que el PSD carece de informaci´on de fase, se emplean los estad´ısticos de orden superior para detectarlo.

T RIS(ω1 , ω2 , ω3 ) ∈ CK×K×K

si la transformada discreta de Fourier se ha calculado para K muestras en el dominio frecuencial. Por tanto, en este caso la definici´ on de las caracter´ısticas tendr´an que cumplir F {t(t)}

cj (T RIS(ω1 ,ω2 ,ω3 ))

T RIS(F (ω))

t(t) ∈ IRK −−−−−−−−→ F (ω) ∈ CK −−−−−−−−→ T RIS(ω1 , ω2 , ω3 ) ∈ CK×K×K −−−−−−−−−−−−−→ xj ∈ ℵ con ℵ = IR, IN Por ello, se tomar´ a en todos los casos la magnitud de los elementos del triespectro: T RIS(ω1 , ω2 , ω3 ) = |T RIS(ω1 , ω2 , ω3 )|

(5.51)

De manera an´ aloga a la diagonal del biespectro, se define la diagonal del triespectro. Definici´ on 10. Diagonal principal del triespectro Sea A la matriz cuadrada definida sobre los complejos, A ∈ CK×K×K . Se define la aplicaci´ on diag : CK×K×K −→ CK   diag (A) = A111 · · · AKKK (5.52)

como la aplicaci´ on de extracci´ on de los elementos de la diagonal principal de la matriz A para crear  un vector fila δA = A111 · · · AKKK = diag (A)

La primera caracter´ıstica del triespectro se refiere al valor m´aximo que toma la diagonal del mismo, es decir: c17 = m´ ax (diag|trisp) , argmax {δT RIS [k]}

(5.53)

k=1,...,K

La segunda caracteristica tiene en cuenta la suma normalizada de los valores de la magnitud de la diagonal del triespectro: K

c18 = Sr (diag|trisp) =

X 1 diag (BIS) argmax {δT RIS [k]}

k=1,...,K

k=1

(5.54)

80

Cap´ıtulo 5 - Caracterizaci´ on del temblor

Las caracter´ısticas diecinueve, veinte y veintiuno se refieren a los momentos de la diagonal del triespectro. As´ı, la caracter´ıstica diecinueve es la media de la diagonal del triespectro, la veinte es la varianza y la veintiuno es el coeficiente de asimetr´ıa de la diagonal.

c19 = m1 (diag|trisp) , µ =

K 1 X (δT RIS [k]) K

(5.55)

k=1

c20 = m2 (diag|trisp) , σ 2 =

K 1 X 2 (δT RIS [k]) K

(5.56)

k=1

c21

1 = m3 (diag|trisp) , K

K P

k=1

(δT RIS [k] − µ)

3

σ3

(5.57)

La caracteristica veintis´eis se define como el momento respecto del origen de orden cinco de la diagonal de la magnitud del triespectro:

c26 = m5 (diag|trisp) ,

K 1 X 5 (δT RIS [k]) K

(5.58)

k=1

Por u ´ltimo, las caracter´ısticas veinticuatro y veinticinco se refieren al n´ umero de muestras de la diagonal del triespectro que est´ an por encima de un umbral:

c24 = N0,15 % (diag|tris) ,

K 1 X s (diag (T RIS) , ψ) K k=1

con ψ = 1,5 · 10

−3

m´ax (diag (T RIS))

c25 = N5,6·10−6 % (diag|trisp) ,

K 1 X s (diag (T RIS) , ψ) K k=1

−8

con ψ = 5,6 · 10

5.7.

(5.59)

(5.60)

m´ax (diag (T RIS))

Caracter´ısticas inmediatas (INM)

Todas las caracter´ısticas que hasta ahora se han descrito tienen que ver con funciones estad´ısticas sobre el espectro de las series del temblor. En su trabajo, Benito Coca [Hern´andez, 2009] propueso ocho caracter´ısticas relacionadas con el dominio temporal y con el espectro de forma directa. Estas caracter´ısticas se inspiraron en el trabajo [Salarian et al., 2007], en el que se emplea un gir´oscopo como aparato de medida del temblor de Parkinson y posteriormente se mide la amplitud del movimiento por medio del valor rms.

5.7.1.

Ventajas

Su autor describe una serie de caracter´ısticas, entre las cuales conviene destacar: Simplificaci´ on de la interpretaci´ on: Se pretende encontrar caracter´ısticas que proporcionen una mejor orientaci´ on sobre el temblor (duraci´on, amplitud y frecuencia del mismo) que manifest´o el paciente durante la prueba. As´ı se lograr´ıa detectar mejor los fallos y los valores at´ıpicos.

5.7 - Caracter´ısticas inmediatas (INM)

81

Explotaci´ on de toda la informaci´ on: Con estas caracter´ısticas se calculan valores sobre los tres ejes del movimiento, al contrario de lo que se hac´ıa con las anteriormente definidas. De esta manera se recoge mucha m´ as informaci´ on con la que generar datos, pues ese era un cuello de botella en el desarrollo de todos los proyectos anteriores. Descripci´ on del estado de la enfermedad: Seg´ un explica su autor, bas´andose en sus referencias, al cuantificar el desarrollo del temblor, en el caso del Parkinson, se emplean los datos de amplitud y frecuencia del temblor. Son complementarias: La idea era crear un nuevo conjunto de caracteristicas que se pudieran a˜ nadir a las anteriores para continuar la investigaci´on sobre m´as conjuntos de datos. Nota 7: Justificaci´ on de la creaci´ on de nuevas caracter´ısticas Es importante a˜ nadir que el fin de la investigaci´on es obtener resultados coherentes en relaci´on con el diagn´ ostico diferencial. Por ello, cuanto menor sea la dimensi´on de trabajo, visto el n´ umero de muestras limitado con el que se trabaja, m´as fiables ser´an los resultados. La justificaci´on de la creaci´ on de m´ as caracter´ısticas estriba en la b´ usqueda de indicadores m´as agudos de las diferencias entre los temblores, y posteriormente se seleccionar´an los mejores indicadores de un conjunto considerablemente grande.

5.7.2.

Procedimiento de extracci´ on

Al igual que se hac´ıa con el m´etodo de Welch para calcular el PSD, las caracter´ısticas inmediatas se basan en la divisi´ on de la serie temporal en ventanas. No obstante, la idea no es la misma. Tal y como hemos notado hasta ahora a la serie temporal de cada uno de los ejes, ta (t), con a = x, y, z, y con un n´ umero de muestras igual a K, hay que remarcar que el temblor no se manifiesta con la misma intensidad a lo largo de todo el movimiento. En efecto, hay intervalos de tiempo en que el temblor disminuye, e incluso desaparece, por lo que si calculamos el valor rms de la serie temporal, el resultado que se obtendr´ a no tiene por que ser un gran indicador de la cantidad de temblor que se ha producido en el movimiento. Por ejemplo, un paciente ha podido describir una trayectoria de doce segundos con tres segundos de un temblor muy intenso, mientras que otro ha podido describir la misma trayectoria con doce segundos de temblor moderado, entregando los dos valores similares de rms, y dando una idea err´ onea de la caracter´ıstica del temblor. Por ello se ha dividido, tal y como ilustra la figura 5.11, la serie temporal en ventanas de longitud constante y con Ω = 0 % de solape entre s´ı. En cada una de ellas se calcular´a el PSD, y se comparar´ a su m´ aximo con un valor cr´ıtico por encima del cual se considerar´a la ventana como temblorosa y, en caso contrario, como no temblorosa. Adem´ as de la restricci´on del valor m´aximo, se impondr´a que la frecuencia a la que se manifiesta est´e comprendida entre 2Hz y 12Hz, ambos valores definidos por el autor de estas caracter´ısticas. Tras detectar las ventanas temblorosas, se proceder´a a la eliminaci´on de aquellas que no lo son, y a la concatenaci´ on de las elegidas. Tras la concatenaci´on, y con el fin de eliminar las discontinuidades producidas por la uni´ on de las ventanas, se filtrar´a la nueva serie recortada. Definici´ on 11. Detecci´ on de ventanas temblorosas Sea ta (t), con a = x, y, z, la serie que representa el vector temblor del eje a. Sea M el tama˜ no de las ventanas en las que se va a dividir la serie, y sea S el n´ umero de ventanas tal que se satisfaga la ecuaci´ on 5.38, con Ω = 0 % y K el n´ umero de elementos de la serie (el n´ umero de muestras). Se define tai (t) como la ventana i-´esima de las que se ha dividido el temblor de forma que: tai (t) = ta ((i − 1)M + t),

con t = 1, . . . , M

e i = 1, . . . , S

(5.61)

y en la que los tai (t) no se solapan. Sea Ψ el umbral del m´ aximo del PSD, y fmin y fmax los umbrales en frecuencia entre los cuales se puede dar este m´ aximo. Diremos que una ventana es temblorosa si y solamente si se cumple m´ ax (P SD(tai (t))) ≥ Ψ



fmin < fm´ax P SD(tai (t)) < fmax

(5.62)

82 82 82

Cap´ıtulo 5 - Caracterizaci´ on del temblor Cap´ ıtulo 55 -- Caracterizaci´ Caracterizaci´oonn del Cap´ ıtulo del temblor temblor 1 1

10

0

Valor l´ ogico ventana Valor l´ogico dede la laventana

Amplitud del temblor (mm) Amplitud del temblor (mm)

10

0

−10 0 −10 0

500 500

1,000 1,000

1,500 2,000 1,500 2,000 N´ umero de muestra N´ umero de muestra

2,500 2,500

3,000 3,000

0 3,500 0 3,500

Figura 5.11: Ejemplo de la detecci´ on de ventanas temblorosas. En este ejemplo se han tomado ventanas

Figura 5.11: Ejemplo de la azul detecci´ on de ventanas temblorosas. En este ejemplo se hanen tomado ventanas de 100 muestras. La curva corresponde a l eje X filtrado de un de Parkinson la realizaci´ on Figura 5.11: Ejemplo de la detecci´ on de ventanas temblorosas. Enpaciente este ejemplo se han tomado ventanas de 100 muestras. La curva azul corresponde a l eje X filtrado de un paciente de Parkinson en la realizaci´ on del patr´ on PT9La curva azul corresponde a l eje X filtrado de un paciente de Parkinson en la realizaci´ de 100 muestras. on del patr´ o n PT9 del patr´ on PT9

Amplitud del temblor aislado (mm) Amplitud del temblor aislado (mm)

6

6 4

4 2

2 0

−2 −4 −6

0 −2 −4 −6

0

0

500

500

1,000

1,000

2,000

2,500

3,000

3,500

N´ umero de muestra 1,500 2,000

1,500

2,500

3,000

3,500

Figura 5.12: Concatenaci´ on N´ de las ventanas encontradas en la figura 5.11 umero de muestra

Figura 5.12: 5.12: Concatenaci´ oonn de Figura Concatenaci´ de las las ventanas ventanas encontradas encontradasen enlalafigura figura5.11 5.11 Definiremos as´ı una serie que notaremos por {Λai }, con a = x, y, z, o simplemente Λa [i], con i = 1, . . . , S cuyos elementos pertenecen al conjunto B = {0, 1}, y siendo Definiremos as´ı una serie que notaremos por {Λaia}, con a = x, y, z, o simplemente Λa a[i], con i = Definiremos as´ı una serie que notaremos( por {Λi }, con a = x, y, z, o simplemente Λ [i], con i = 1, . . . , S cuyos elementos pertenecen al conjunto B = {0, 1}, y siendo 1, . . . , S cuyos elementos pertenecen ala conjunto 1}, y5.62 siendo 1 Bsi =se{0, cumple Λ [i] = (5.63) 0 si no se cumple 5.62 ( ( 1 si se cumple 5.62 Λaa [i] = 1 si se cumple 5.62 (5.63) Λ a[i] = 0 si no se cumple 5.62 temblorosas y empalmarlas. (5.63) Por tanto, se emplear´a la serie Λ [i] para seleccionar las ventanas

0

si no se cumple 5.62

a Definici´ on se 12. Empalme trayectorias temblorosas las ventanas temblorosas y empalmarlas. Por tanto, tanto, emplear´ a la la de serie Λ a [i] para [i]apara seleccionar seleccionar las ventanas temblorosas y empalmarlas. Por se emplear´ a serie Λ a

Sea t (t) el vector temblor, y sean ti , con i = 1, . . . , S las ventanas en las que se ha dividido el mismo. Sea Λao[i] la serie que determina la caracter´ıstica de temblor de una ventana concreta. Definici´ 12. Empalme de trayectorias Definici´ onn 12. Empalme de trayectorias temblorosas temblorosas S a a X Sea t y sean t a (t) el vector temblor, a, con i = 1, . . . , S las ventanas enelas que se ha adividido el mismo. a i e SeaaSe t define (t) el vector y sean tiy,, con i = un 1, .n´ .u. mero , S lasdeventanas que ha [i] dividido el uni´ mismo. como la on la serietemblor, t (t), con a = x, x y con muestrasen K las =M · se Λ Sea Λa [i] la serie que determina la caracter´ıstica de temblor de una ventana concreta.

Sea Λ [i] la serie que determina la caracter´ıstica de temblor de una ventana concreta. i=1 S X S a e = M · XΛa a[i] como la uni´ e Se define la serie e ta (t), con a = x, y, x y con un n´ umero de muestras K on e Se define la serie t (t), con a = x, y, x y con un n´ umero de muestras K = M · Λ [i] como la uni´ on i=1 i=1

5.7 - Caracter´ısticas inmediatas (INM)

83

de las ventanas clasificadas como temblorosas: e ta (t) =

S [

tai

tal que Λa [i] = 1

(5.64)

i=1

Tras ello, se aplicar´ a un filtro paso bajo con una frecuencia de corte de 12Hz para eliminar las discontinuidades producidas en la concatenaci´on. Tras esta primera fase de preparaci´ on de los recursos necesarios para poder definir las caracter´ısticas, se han obtenido tres series correspondientes a las trayectorias temblorosas del movimiento del paciente, habiendo eliminado los tramos no temblorosos.

5.7.3.

Porcentaje del temblor

La primera caracter´ıstica se refiere precisamente a la proporci´on del tiempo que el paciente ha mostrado un temblor considerable a lo largo de su trayectoria. Para ello, se calcular´a la serie Λa [i], y se calcular´ a el porcentaje de valores de la serie que valen uno respecto del total (la proporci´on de ventanas que han sido clasificadas como temblorosas). Hay que remarcar que el total se calcula sobre el conjunto de los tres ejes, quedando as´ı la caracter´ıstica n´ umero veintisiete (T R de tremor ratio):

c27 = T R ,

5.7.4.

S X

(Λx [i] + Λy [i] + Λz [i])

i=1

(5.65)

3·S

Caracter´ısticas relacionadas con la amplitud

Las cuatro caracter´ısticas siguientes se refieren a la amplitud del vector temblor puro e ta (t) calculada como el valor rms de la serie de cada uno de los ejes. En primer lugar habr´a que calcular las caracter´ısticas veintinueve, treinta y treinta y uno, pues la caracter´ıstica veintiocho se calcula a partir de estas tres de la siguiente manera:

c28 = A ,

q

a2x + a2y + a2z

(5.66)

donde los tres t´erminos cuadr´ aticos de la ra´ız corresponden a las definiciones de las tres caracter´ısticas siguientes, definidas como el valor rms de la serie del eje a normalizada por el m´odulo del vector cuyas componentes son las amplitudes de cada uno de los ejes. Definici´ on 13. Amplitud del temblor puro de un eje Sea e ta la serie del temblor puro sobre el eje a. Se define la amplitud, que notaremos por Aa , como el valor rms calculado a partir de la serie e ta de la siguiente manera. v u e  K 2 u1 X a e A =t ta [k] e K k=1

a = x, y, z

(5.67)

c29 = ax ,

s



Ax Ax + Ay + Az

(5.68)

c30 = ay ,

s



Ay + Ay + Az

(5.69)

Ax

84

Cap´ıtulo 5 - Caracterizaci´ on del temblor

c31 = az ,

5.7.5.

s



Az Ax + Ay + Az

(5.70)

Caracteristicas relacionadas con la frecuencia

De manera an´ aloga a como se hizo con las series temporales completas, se calcular´a la frecuencia a la que sucede el m´ aximo del PSD, pero esta vez sobre la serie del temblor puro de cada uno de los ejes.Si notamos por P SDx , P SDy y P SDz a los PSD respectivos de las series de temblor puro de cada eje, las siguientes tres caracter´ısticas, y u ´ltimas relacionadas con las caracter´ısticas inmediatas, son:

5.8. 5.8.1.

c32 = fm´ax (P SDx ) , fm : P SDx (2π · fm ) > P SDx (ωk ), ∀k 6= m

(5.71)

c33 = fm´ax (P SDy ) , fm : P SDy (2π · fm ) > P SDy (ωk ), ∀k 6= m

(5.72)

c34 = fm´ax (P SDz ) , fm : P SDz (2π · fm ) > P SDz (ωk ), ∀k 6= m

(5.73)

Caracter´ısticas de entrop´ıa (ENTR) Introducci´ on

El fin de este trabajo es encontrar indicadores contundentes de diferencias entre el temblor de cada tipo de paciente. Para ello, se han empleado, como se ver´a en el cap´ıtulo siguiente, distintas t´ecnicas de an´ alisis multivariante, pero el m´etodo sobre el que m´as inter´es se ha vertido es el an´alisis de las distribuciones. Esta t´ecnica consiste en calcular, dado un conjunto de vectores, las distribuciones de probabilidad de cada una de las componentes de los mismos. De esta manera, al superponer las distribuciones obtenidas, por ejemplo, de la caracter´ıstica cj un paciente de temblor esencial y un paciente sano, se podr´a concluir si esa caracter´ıstica es un buen diferenciador del temblor si la superposici´on de las curvas de distribuci´on es peque˜ na. Tras analizar las caracter´ısticas que se han descrito hasta ahora, se han obtenido distribuciones que, en cierto modo, tienen un grado de superposici´on bastante elevado. Esto ha motivado la b´ usqueda de nuevas caracter´ısticas de las que se desprendan curvas de distribuci´on poco solapadas para los tres tipos de enfermedad. Las caracter´ısticas definidas en este trabajo entregan curvas de distribuci´on menos superpuestas, por lo que ser´ an mejores indicadores de las diferencias entre el temblor de los distintos tipos de pacientes. Para justificar la creaci´ on de estas caracter´ısticas se parte de las siguientes hip´otesis: 1. Cuando se manifiesta el temblor, la frecuencia del mismo adquiere dominancia sobre el resto del espectro, provocando una se˜ nal m´ as homog´enea. 2. Como consecuencia de la primera hip´ otesis, la se˜ nal ser´a caracterizada por un ‘‘orden’’ mayor en los tramos en los que se produce temblor, al asemejarse m´as a una se˜ nal determinista que a una aleatoria.

5.8.2.

Entrop´ıa de una se˜ nal

Dado que las amplitudes del temblor como se˜ nal biol´ogica es altamente variable, es deseable encontrar un par´ ametro independiente de la amplitud para la medici´on de la se˜ nal. En algunos momentos, la se˜ nal del temblor adquiere cierto orden, de forma que las ondas tienen un aspecto en cierto modo determinista, mientras que durante el resto del tiempo la se˜ nal se vuelve m´as aleatoria, aumentando el ‘‘desorden’’ de la se˜ nal.

5.8 - Caracter´ısticas de entrop´ıa (ENTR)

85

La medida de la entrop´ıa de una se˜ nal permite cuantificar este desorden, arrojando luz sobre el problema de la cuantizaci´ on del temblor producido a lo largo de una trayectoria. La entrop´ıa introducida por Shannon [Shannon, 2001] permite realizar esta medici´on del desorden o incertidumbre de la se˜ nal. La entrop´ıa de Shannon forma parte de la teor´ıa de la informaci´on, y se define como Definici´ on 14. Entrop´ıa de Shannon Sea X una variable aleatoria sobre el conjunto Ω y funci´ on de masa de probabilidad (P.M.F.) p(x) = P {X = x}, con x ∈ Ω. Se define la entrop´ıa H(X) de una variable aleatoria discreta X como H(X) = −

X

p(x) logb p(x)

(5.74)

x∈Ω

1 ≥0 p(x) La base del logaritmo, b, depende del n´ umero de elementos de Ω, y por lo general se toma b = 2, b = e o b = 10. En nuestro caso, tomaremos b = 10. Donde H(X) ≥ 0, puesto que 0 ≤ p(x) ≤ 1 =⇒ log

Como se puede observar, la entrop´ıa es una medida independiente de la variable aleatoria X, pues solo tiene en cuenta la P.M.F.. La idea que subyace tras esta definici´on consiste en la medida de la incertidumbre que un receptor puede tener al recibir un mensaje de un emisor, sabiendo que este mensaje est´a basado en un alfabeto Ω, y que la probabilidad de que cada s´ımbolo del mensaje aparezca es p(x). A priori este concepto tiene poco que ver con nuestro problema, pero como veremos, puede ser interesante aplicar la definici´ on de entrop´ıa no para medir la incertidumbre de un mensaje, sino la incertidumbre de una se˜ nal. Inter´ es en este trabajo Para poder aplicar la entrop´ıa de Shannon a la caracterizaci´on del temblor, hay que poder definir qu´e es lo que se pretende medir. Precisamente, la caracter´ıstica interesante que subyace en la entrop´ıa es la medida del desorden, y resultar´ıa interesante poder medir c´ omo de desordenada es una se˜ nal temblorosa para poder justificar las hip´ otesis descritas en la secci´ on 5.8.1 Si tomamos, tal y como se describe en [Berm´ udez et al., 2011], el histograma de las amplitudes del vector temblor como funci´ on de masa de probabilidad, se estar´ıa tomando el conjunto de probabilidades de que una amplitud determinada se produzca. Esto significa que si la se˜ nal est´a ‘‘ordenada’’, podr´ a ser descrita por, digamos, una se˜ nal senoidal de amplitud constante, por lo que la P.M.F. estar´a concentrada alrededor del valor de esta amplitud (tendr´a una desviaci´on peque˜ na). De esta manera, la entrop´ıa tomar´ a valores peque˜ nos, al tener una P.M.F. estrecha, mientras que al aplanarse la P.M.F. la entrop´ıa aumentar´ a. Bajo la misma idea, se puede tomar la PSD normalizada como funci´on de masa de probabilidad, para describir si la potencia est´ a muy concentrada alrededor de una frecuencia del espectro (tendr´a entrop´ıa baja) o si, por el contrario, no hay una frecuencia dominante y la potencia est´a distribuida a lo largo de todo el espectro (hasta la frecuencia de Niquist). Por lo tanto, se calcular´ a la entrop´ıa en base a dos conceptos distintos: El orden basado en las amplitudes del temblor El orden basado en el espectro En la figura 5.13 se muestra una se˜ nal temblorosa (la misma que la de la figura 5.11) a la que se le han intercalado tres se˜ nales deterministas, correspondientes a tres senos de amplitudes 4, 1 y 2 mil´ımetros respect´ıvamente, y frecuencia fdeterminista = 10Hz. La serie se ha dividido en ventanas de 100 muestras, y como se puede comprobar, en los tramos en los que se da la se˜ nal determinista, la entrop´ıa disminuye, mientras que en los tramos de amplitudes variables la entrop´ıa aumenta. Esta figura permite demostrar que la entrop´ıa no depende de la magnitud de la amplitud, sino de la constancia de la misma.

86 86

Cap´ıtulo 5 - Caracterizaci´ on del temblor

6

6

4

5

2

4

0

3

−2

2

−4

1

−6

200

400

600

800

1,000

1,200

1,400

1,600

1,800

2,000

2,200

Entrop´ıa seg´ un amplitud

Amplitud del temblor (mm)

Cap´ıtulo 5 - Caracterizaci´ on del temblor

0

n´ umero de muestra

Figura5.13: 5.13:Ejemplo Ejemplode devalores valores de de entrop´ entrop´ıa uunn amplitudes nal LaLa curva azulazul Figura ıa seg´ seg´ amplitudesdedelalase˜ se˜ naldeldeltemblor. temblor. curva correspondealaleje ejeXXfiltrado filtradode de un un paciente paciente de onondel onon PT9 corresponde de Parkinson Parkinson en enlalarealizaci´ realizaci´ delpatr´ patr´ PT9

5.8.3. Definici´ Definici´ de las las caracter´ caracter´ısticas ısticas 5.8.3. oonnde Expuestas las hip´otesis y la t´ecnica, pasamos ahora a definir las caracter´ısticas relacionadas con la Expuestas las hip´ otesis y la t´ecnica, pasamos ahora a definir las caracter´ısticas relacionadas con la entrop´ıa. entrop´ ıa. En primer lugar, se va a emplear el criterio del PSD para clasificar las ventanas como temblorosas o Entemblorosas, primer lugar, se va a emplear el criterio del PSD clasificar lasseventanas como temblorosas no manteniendo la trayectoria iniciada por B.para Coca. Tras ello, concatenar´ an las ventanas o notemblorosas, temblorosas,y manteniendo la trayectoria iniciada por B. Coca. Tras ello, se concatenar´ a n las ventanas se calcular´a la entrop´ıa de cuatro maneras:

temblorosas, y se calcular´ a la entrop´ıa de cuatro maneras: Sobre la serie del temblor completa y mediante el histograma de amplitudes como P.M.F.. Sobre la serie del temblor completa y mediante el histograma de amplitudes como P.M.F.. Sobre la serie del temblor completa y tomando la PSD normalizada como P.M.F.. Sobre la serie del temblor completa y tomando la PSD normalizada como P.M.F.. Sobre la serie del temblor puro y mediante el histograma de amplitudes como P.M.F.. Sobre la serie del temblor puro y mediante el histograma de amplitudes como P.M.F.. Sobre la serie del temblor puro y tomando la PSD normalizada como P.M.F.. Sobre la serie del temblor puro y tomando la PSD normalizada como P.M.F.. Es importante remarcar lo siguiente: EsNota importante remarcar 10: Tama˜ no de lolassiguiente: barras del histograma de amplitudes

Nota 8: Tama˜ noP.M.F. de las basada barrasa del histograma de amplitudes La forma de una partir de un histograma depende directamente del tama˜ no de los intervalos de clase. LaComo formanorma de una P.M.F. basada alapartir histograma delel tama˜ no de general, tomaremos regla de de un la ra´ ız cuadradadepende como gu´directamente ıa para calcular n´ umero losdeintervalos de clase. intervalos de clase (I): Como norma general, tomaremos la regla de la ra´ız cuadrada como gu´ıa para calcular el n´ umero √ de intervalos de clase (I):I ≈ K, con K el n´ umero total de muestras √ I ≈ K, el vector con K el n´ umero total muestras como si no lo es, en lugar La entrop´ıa se va a calcular para completo, tanto si esdetembloroso de para cada una de las ventanas, como se ha visto en el ejemplo m´ as arriba. LaEn entrop´ ıa se va adefinimos calcular para el vectorde completo, tanto si es tembloroso como si no lo es, en lugar primer lugar, el histograma amplitudes como: de para cada una de las ventanas, como se ha visto en el ejemplo m´as arriba. Definici´ on 15. Histograma En primer lugar, definimosdeelamplitudes histograma de amplitudes como: Sea t(t) o e t(t) el vector temblor o el vector de temblor puro, respectivamente, del eje m´ as tembloroso que, de forma gen´ e rica, llamamos x. Nos referiremos al histograma de amplitudes de x mediante la Definici´ on 15. Histograma de amplitudes funci´ o n H que cuenta el n´ u mero de muestras de x que caen en cada uno de los intervalos disjuntos, hi , e Sea t(t) o t(t) el vector temblor o el vector de temblor puro, respectivamente, del eje m´ as tembloroso de forma que que, de forma gen´erica, llamamos x. Nos referiremos al histograma de amplitudes de x mediante la funci´ on H que cuenta el n´ umero de muestras de x que I caen en cada uno de los intervalos disjuntos, hi , X de forma que K= fi (5.75) i=1

K=

I X i=1

fi

(5.75)

5.8 - Caracter´ısticas de entrop´ıa (ENTR) 5.8 - Caracter´ısticas de entrop´ıa (ENTR)

87 87

siendo K el √ numero total de mustras de x e I el n´ umero total de intervalos disjuntos. Por lo general siendo K elK. numero total de mustras de x e I el n´ umero total de intervalos disjuntos. Por lo general √ tomaremos I≈ tomaremos I ≈ K. Sobre cada uno de los intervalos de clase hi se representa por la altura de la barra la frecuencia Sobre cada uno de los intervalos de clase hi se representa por la altura de la barra la frecuencia absoluta fi del n´ umero de muestras cuya amplitud se encuentra en este intervalo. absoluta fi del n´ umero de muestras que cuya amplitud se encuentra en este intervalo. As´ı,As´ por ejemplo para la se˜ nalnaltemblorosa de la figura 5.14, el histograma de amplitudes se muestra a ı, por ejemplo para la se˜ temblorosa de la figura 5.14a, el histograma de amplitudes se muestra su derecha. en 5.14b 100

5

80 60

0

40 20 −5 0

200

400

600

800

0 −6

1,000 1,200 1,400

(a) Serie del temblor

−4

−2

0

2

4

6

(b) Histograma de amplitudes

Figura 5.14: Serie del temblor e histograma de amplitudes del mismo

Figura 5.14: Serie del temblor e histograma de amplitudes del mismo En general denotaremos a la funci´ on de masa de probabilidad calculada a partir del histograma de

En general por denotaremos la funci´ onserie de masa de probabilidad calculada partir del amplitudes p(•), y si sea trata de la del temblor la llamaremos p(t(t)),amientras quehistograma si se trata de de la serie temblor la de llamaremos p(e t(t)), y lalacalcularemos el histograma amplitudes por del p(•), y si sepuro trata la serie del temblor llamaremos normalizando p(t(t)), mientras que si sede trata e el n´ umero de muestras, p( para queylalasuma de todas las probabilidadeselseahistograma igual a la de de laamplitudes serie delpor temblor purototal la llamaremos t(t)), calcularemos normalizando unidad. por el n´ amplitudes umero total de muestras, para que la suma de todas las probabilidades sea igual a la unidad. p , p(t(t)) =

p , p(t(t)) =

H(t(t)) K H(t(t))

K

H(e t(t)) pe , p(e t(t)) = e K

(5.76)

(5.76) (5.77)

H(e t(t)) pe , p(e t(t)) = (5.77) Por otra parte, la funci´ on de masa de probabilidad calculada a partir de la PSD se define como: e K

Definici´ n 16. la P.M.F. partir de la PSD calculada a partir de la PSD se define como: Por otra oparte, funci´ ocalculada n de masaa de probabilidad

Sea P SD(ω) la densidad espectral de potencia de la se˜ nal t(t). Sea P] SD(ω) la densidad espectral de

Definici´ on 16. calculada a partir de la PSD potencia de laP.M.F. se˜ nal e t(t). Se definen las funciones de masa de probabilidad calculadas a partir de estas PSD’s como: Sea P SD(ω) la densidad espectral de potencia de la se˜ nal t(t). Sea P] SD(ω) la densidad espectral de e potencia de la se˜ nal t(t). Se definen las funciones de masa de probabilidad calculadas a partir de estas P SD(ω) PSD’s como: q , q(ω) = , con K el n´ umero de muestras del espectro de t(t) (5.78) q , q(ω) =

e K

P SD(ω) , P] SD(ω) e K

qe , qe(ω) =

e K

con K el n´ umero de muestras del espectro de t(t) ,

e el n´ con K umero de muestras del espectro de e t(t)

(5.78) (5.79)

P] SD(ω) La primera de las caracter´ ısticas relacionadas la entrop´ıa es la de la serie del temblor calculada a e el con e q e , q e (ω) = , p. con K n´ umero con de muestras del espectro detreinta t(t) y cinco,(5.79) partir del histograma de amplitudes, Esta corresponde la caracter´ ıstica n´ u mero y e K su definici´ on es:

La primera de las caracter´ısticas relacionadas con la entrop´ıa es la de la serie del temblor calculada a partir del histograma de amplitudes, p. Esta corresponde con la caracter´ıstica n´ umero treinta y cinco, y I X su definici´ on es: c35 = H(p) , −

c35 = H(p) , −

pi log (pi ) nueva

(5.80)

i=1

I X i=1

pi log (pi ) nueva

(5.80)

88

Cap´ıtulo 5 - Caracterizaci´ on del temblor

De manera an´ aloga, la caracter´ıstica treinta y seis se define como

c36 = H(e p) , −

Ie X i=1

pei log (e pi ) nueva

(5.81)

qk log (qk ) nueva

(5.82)

qek log (e qk ) nueva

(5.83)

Para el caso de la PSD, al ser una funci´ on cuyo dominio de definici´on es un conjunto de frecuencias del fs espectro desde f = 0 hasta la frecuencia de Niquist fN = , y puesto que hemos tomado que el cardinal 2 e seg´ de este conjunto lo notamos por K o K, un el caso (nota 5.3), la definici´on de las caracter´ısticas treinta y ocho y treinta y nueve quedan como sigue: c38 = H(q) , −

c39 = H(e q) , −

5.9.

K X

k=1

e K X

k=1

Funciones utilizadas para la extracci´ on de las caracter´ısticas

La extracci´ on de las caracter´ısticas, como se ha visto, se basa en las series temporales del temblor. Por ello, el algoritmo de extracci´ on de las mismas requiere como datos de entrada las series temporales correspondientes a los tres ejes, as´ı como los par´ametros del filtro. Por otra parte, las caracter´ısticas se calcular´an para la realizaci´on de un conjunto de patrones determinado, o para cada uno de los patrones por separado, por lo que el algoritmo debe permitir realizar esta diferenciaci´ on, guardando las matrices de caracter´ısticas en una estructura o en celdas distintas de una base de datos. La problem´ atica con la que se ha lidiado consiste en que resulta m´as sencillo hacer un algoritmo para la extracci´ on de las caracter´ısticas por tipo de patr´on y otro para las caracter´ısticas por patr´on que hacer uno global. Los algoritmos 3 y 4 muestran c´ omo se implementan las funciones, y en la figura 5.16 se muestra un diagrama SART del flujo de los datos cuando en el algoritmo se realiza la extracci´on de las caracter´ısticas para un conjunto X, que puede ser ‘‘Est´ aticos’’, ‘‘Cin´eticos’’, ‘‘Din´amicos’’, ‘‘Todos’’, ‘‘PT1’’, ‘‘PT2’’, hasta ‘‘PT18’’. En efecto, ambos algoritmos son muy similares, pero por comodidad se ha decidido implementar ambas funciones para poder distinguir f´ acilmente qu´e tipo de caracter´ısticas se van a extraer. Las funciones empleadas para extraer estos algoritmos se denominan extractorCaracteristicas(e) y extractorCaracteristicasPatron(e). En ambos casos se pasa como par´ametro una cadena de caracteres con la que se especifica la enfermedad de la cual se van a extrar las caracter´ısticas. Puesto que en ocasiones ser´ a interesante automatizar la extracci´on de todas las caracteristicas, seg´ un todos los criterios y para todas las enfermedades, se ha implementado una funci´on que permita realizar llamadas a las anteriores de manera sucesiva, extractorCaracteristicasTODOS(flag), que recibe un flag con el que se controla si se van a extraer las caracter´ısticas de todas las enfermedades seg´ un tipo de patr´ on, seg´ un patr´ on, o ambos casos (flag valdr´a 0, −1 u otro valor, respectivamente). Tras la ejecuci´ on de la funci´ on, se habr´ a confeccionado una base de datos de caracter´ısticas que hay que guardar en disco, y de la cual es interesante, para trabajos futuros, explicar su organizaci´on (v´ease la siguiente secci´ on).

5.10.

Organizaci´ on de las caracter´ısticas en la base de datos

Al haber terminado con la ejecuci´ on de las funciones descritas en la secci´on anterior, se han generado varias matrices de caracter´ısticas, de tama˜ nos variables, y que hay que organizar para su posterior utilizaci´ on de manera automatizada.

5.10 - Organizaci´ on de las caracter´ısticas en la base de datos

89

Algoritmo 3: Extracci´ on de las caracter´ısticas por tipo de patr´on entrada :E enfermedad de la que se van a extraer las caracter´ısticas salida : Estructura de datos con caracter´ısticas ordenadas seg´ un tipo de patr´on Pac ← base de datos de trayectorias sin filtrar de la enfermedad E nPacientes ← n´ umero de pacientes de la estructura Pac nPatrones ← 18 n←1 m←1 p←1 for a ← 1 to nPacientes do nSesiones ← n´ umero de sesiones realizadas por Pac[a] nExt ← 2 for b ← 1 to nSesiones do for c ← 1 to nExt do if Pac[a][b, c] no es una celda vac´ıa then for d ← 1 to nPatrones do X ← Filtrar las trayectorias T ← Elegir direcci´ on m´as temblorosa cPSD ← calcular caracter´ısticas del PSD cBIS ← calcular caracter´ısticas del BIS cTRIS ← calcular caracter´ısticas del TRIS cINM ← calcular caracter´ısticas INM cENTR ← calcular caracter´ısticas de ENTR if d ∈ [1, 2] then c Est´ aticos[n, :] ← cP SD ∪ cBIS ∪ cT RIS ∪ cIN M ∪ cEN T R n=n+1 else if d ∈ [3, 14] then c Cin´eticos[m, :] ← cP SD ∪ cBIS ∪ cT RIS ∪ cIN M ∪ cEN T R m=m+1 else if d ∈ [15, 18] then c Din´ amicos[p, :] ← cP SD ∪ cBIS ∪ cT RIS ∪ cIN M ∪ cEN T R p=p+1 c Todas ← c Est´ aticas∪c Cin´eticas∪c Din´amicas caracter´ısticas ← almacenar en la base de datos los cuatro conjuntos Los cuatro conjuntos son c Est´ aticas, c Cin´eticas, c Din´ amicas y c Todas grabar ‘‘caracter´ısticas’’ en disco

La manera de almacenarlas en disco de forma que sean f´acilmente distinguibles es por grupos. As´ı, las matrices de T. Esencial estar´ an en un archivo, las de Parkinson en otro, y las de sanos en otro. Adem´ as, teniendo en cuenta que podemos calcular las caracter´ısticas dependiendo del tipo de patr´ on o del propio patr´ on, se duplicar´ an los anteriores archivos, a˜ nadiendo un especificador que permita determinar si en ese archivo se encuentran las caracter´ısticas organizadas por tipo de patr´on o por patr´ on. Por lo tanto, teniendo en cuenta las tres posibles enfermedades, y la organizaci´on por tipo de patr´ on o patr´ on, nos encontraremos con seis archivos diferentes que hay que nombrar. Se ha tomado como sistema comenzar por matricesCaracteristicas y continuar con los especificadores. As´ı, si en este archivo se guardan las matrices de caracter´ısticas de Parkinson calculadas a partir de los tipos de patr´ on, el archivo se llamar´a matricesCaracteristicas parkinson, mientras que las calculadas a partir de los propios patrones se guardar´an en matricesCaracteristicasPatron parkinson. De esta forma, obtendremos: matricesCaracteristicas esencial matricesCaracteristicasPatron esencial matricesCaracteristicas parkinson matricesCaracteristicasPatron parkinson

90

Cap´ıtulo 5 - Caracterizaci´ on del temblor

Algoritmo 4: Extracci´ on de las caracter´ısticas por tipo de patr´on entrada :E enfermedad de la que se van a extraer las caracter´ısticas salida : Estructura de datos con caracter´ısticas ordenadas seg´ un tipo de patr´on Pac ← base de datos de trayectorias sin filtrar de la enfermedad E nPacientes ← n´ umero de pacientes de la estructura Pac nPatrones ← 18 n←1 for a ← 1 to nPacientes do nSesiones ← n´ umero de sesiones realizadas por Pac[a] nExt ← 2 for b ← 1 to nSesiones do for c ← 1 to nExt do if Pac[a][b, c] no es una celda vac´ıa then for d ← 1 to nPatrones do X ← Filtrar las trayectorias T ← Elegir direcci´ on m´ as temblorosa cPSD ← calcular caracter´ısticas del PSD cBIS ← calcular caracter´ısticas del BIS cTRIS ← calcular caracter´ısticas del TRIS cINM ← calcular caracter´ısticas INM cENTR ← calcular caracter´ısticas de ENTR if d ∈ [1, 2] then caracter´ısticas[d][n, :] ← cP SD ∪ cBIS ∪ cT RIS ∪ cIN M ∪ cEN T R n=n+1

grabar ‘‘caracter´ısticas’’ en disco

matricesCaracteristicas sanos matricesCaracteristicasPatron sanos A su vez, estos archivos contienen todos una estructura llamada caracteristicas, compuesta de dos columnas en las que se organizan las caracter´ısticas correspondientes. En la figura 5.15 se puede observar un esquema de la organizaci´ on de un fichero concreto.

caracteristicas

struct

Tipo de patrón/ patrón

char

Matriz de características

matrix

Matriz de características

Figura 5.15: Esquema de la orgnaizaci´ on de un fichero de matrices de caracteristicas

En las filas de la primera columna se especifica con una cadena de caracteres cu´al es la matriz de caracter´ısticas que se encuentra en la segunda columna y misma fila que la primera. Finalmente, la matriz de caracter´ısticas se organiza por filas. De esta manera, los vectores cuyas coordenadas son las magnitudes de las caracter´ısticas son las filas de una matriz de n × p. Tras todo el trabajo de caracterizaci´ on, p = 39, es decir, se calcular´an treinta y nueve caracter´ısticas del temblor de los pacientes.

5.10 - Organizaci´ on de las caracter´ısticas en la base de datos

91

Variables internas

FILTRO de trayectorias

Base de datos de trayectorias

Filtro Trayectoria

Caracteristicas PSD

Caracteristicas BIS

Caracteristicas TRIS

Características INM

Selección eje dominante

Características ENTR

cTRIS

Características del conjunto X

Figura 5.16: Diagrama SART de la funci´ on de extracci´ on de las caracter´ısticas para un conjunto determinado X. En azul se representan las funciones de las cuales salen las caracter´ısticas correspondientes a la clasificaci´ on de primer nivel de las caracter´ısticas.

92

Cap´ıtulo 5 - Caracterizaci´ on del temblor

Cap´ıtulo

•••

6

´ ANALISIS DE LAS CARACTER´ISTICAS Hay tantas realidades como puntos de vista. El punto de vista crea el panorama. Jos´e Ortega y Gasset (1883 – 1955)

Resumen Se presenta aqu´ı la metodolog´ıa empleada para analizar las caracter´ısticas, as´ı como las t´ecnicas de tratamiento de los at´ıpicos. Se realiza un an´alisis exhaustivo de los datos desde diferentes puntos de vista para obtener las conclusiones a partir de las cuales se configurar´ a el mecanismo de diagn´ostico.

6.1.

Introducci´ on

En el cap´ıtulo anterior se describieron las caracter´ısticas a partir de las cuales se pretende extraer informaci´ on del temblor que permita diferenciar los distintos tipos de pacientes. Es necesario, sin embargo, realizar un sondeo de las mismas para descartar aquellas que, bien sea por aportar informaci´on redundante, o bien por aportar informaci´ on que puede llevar a errores, son prescindibles. En este capitulo se muestran las t´ecnicas mediante las cuales se ha realizado en an´alisis de la bondad de una caracter´ıstica, as´ı como la influencia que una tiene sobre las dem´as o sobre la cantidad de informaci´ on que aporta al estudio. Como ya se ha explicado, el espacio de caracter´ısticas sobre el que, a priori se trabaja es inmenso, en comparaci´ on con el n´ umero de vectores de que se dispone. Esto supone un argumento m´as para la detecci´ on de direcciones prescindibles y su consecuente eliminaci´on, con el fin de obtener resultados estad´ısticamente m´ as ‘‘correctos’’. La idea que subyace a este concepto de falta de vectores para un espacio tan grande consiste en imaginarse el volumen relativo que tiene un conjunto de, digamos N puntos sobre IR2 . Si este mismo n´ umero de vectores los representamos en IR3 , el volumen relativo ocupado ser´a menor, y los puntos estar´ an m´ as separados entre s´ı. Si extrapolamos, a medida que el espacio es mayor, nuestra nube de puntos se separa, y pierde la cohesi´on que tendr´ıa en dimensiones menores [Pe˜ na, 2002].

6.2.

Objetivo y necesidad

Si denotamos la dimensi´ on del espacio de caracter´ısticas original por p (IRp ), y la dimensi´on del espacio de caracteristicas reducido por m (IRm ), entonces tendremos que hacer pasar nuestros vectores de IRp a IRm . Por otra parte, en la base de datos se encuentran almacenados varios conjuntos de vectores, organizados seg´ un tipo de patr´ on o patr´ on. Estos conjuntos de datos (que no son nada m´as que matrices) tienen un n´ umero de filas igual al n´ umero de vectores de que se dispone, y un n´ umero de columnas igual al n´ umero total de caracter´ısticas (p). Pese a haber mejorado la etapa de filtrado, a´ un sigue habiendo vectores

93

94

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

at´ıpicos que pueden distorsionar los resultados, por lo que tambi´en habr´a que detectarlos y, si procede, eliminarlos del conjunto del que se proven´ıan. Si denotamos por α el n´ umero de at´ıpicos, tendremos en un conjunto de datos determinado r = α + n vectores, siendo n el n´ umero de vectores que han sido correctamente calculados. El tama˜ no de las matrices de la base de datos es, por tanto, r × p. Nota 9: Notaci´ on de las matrices de datos Las matrices de datos est´ an organizadas en las bases de datos correspondientes a tipo de patr´on o patr´ on, pero no todas tienen el mismo n´ umero de vectores, pues no se realizaron el mismo n´ umero de pruebas con todos los pacientes. En general nos referiremos a estas matrices como matrices de r×p, aunque el n´ umero de filas r sea variable dependiendo de la matriz. Sin p´erdida de generalidad, el resto de algoritmos y m´etodos mantienen la coherencia gracias a esta consideraci´on. Contamos por tanto con matrices de tama˜ no r × p que se desea transformar en matrices de n × m para poder obtener resultados m´ as precisos sobre las caracter´ısticas de la enfermedad con los que poder realizar un diagn´ ostico fiable. A la transformaci´ on mediante la cual reducimos tanto el n´ umero de vectores como la dimensi´on del espacio la denominamos an´ alisis de caracter´ısticas, y ´esta se compone de dos partes, a saber: Eliminaci´ on de at´ıpicos: Se realizar´ a en dos pasos: en primer lugar se implementar´a un algoritmo de detecci´ on autom´ atica de at´ıpicos basado en el an´alisis multivariante y en la posici´on relativa de los puntos y subconjuntos a un conjunto dado; en segundo lugar se seleccionar´an aquellos vectores que no hayan sido detectados correctamente en el algoritmo anterior de acuerdo a alg´ un criterio manual. Eliminaci´ on de dimensiones innecesarias: Se realizar´an varios estudios, cada uno de ellos de naturaleza distinta, con el fin de obtener diferentes puntos de vista de la estructura de los vectores, de las relaciones entre las caracteristicas y de la cantidad de informaci´on que aporta cada uno. Estos estudios se basan en tres grandes tem´ aticas: an´alisis multivariante, an´alisis de las distribuciones de probabilidad y clustering (an´ alisis de conjuntos).

6.3.

Descripci´ on del algoritmo de an´ alisis de las caracter´ısticas

Si bien la idea es intuitiva, el procedimiento no es trivial. Las subetapas de las que se compone el an´ alisis de caracter´ısticas est´ an relacionadas las unas con las otras, y el proceso no es lineal, sino iterativo. En la figura 6.1 se muestra un diagrama de bloques de los procesos que tienen lugar en el an´alisis de las caracter´ısticas. Esta etapa forma parte de la caracterizaci´on, como se mostr´o en la figura 5.1 (p´agina 63), y por tanto es parte de un proceso iterativo. En primer lugar se realizar´ a un an´ alisis multivariante de los datos, en el que se mostrar´a por pantalla una matriz de dispersi´ on bivariante con las dependencias de cada una de las caracter´ısticas. Esta parte es muy importante, pues permite dar una primera idea de la distribuci´on de los vectores, as´ı como de las correlaciones entre las direcciones del espacio. Una vez se ha realizado el an´ alisis multivariante se procede con otros tres tipos de an´alisis: an´alisis de componentes principales, an´ alisis de conglomerados y an´alisis de las distribuciones. Adem´as ya se puede realizar la eliminaci´ on automatizada de los vectores at´ıpicos mediante un algoritmo que, como ser ver´a, se basa en el coeficiente de kurtosis, as´ı como en la distancia Mahalanobis. En la etapa de componentes principales se retoma el trabajo realizado en [L´opez, 2006], con el fin de comprobar los resultados del an´ alisis de componentes principales tras la eliminaci´on de at´ıpicos. As´ı, se realizar´ a un A.C.P. con los at´ıpicos incluidos y sin ellos, para comprobar el efecto de su eliminaci´on en las direcciones de m´ axima dispersi´ on y en los autovalores de de la matriz de correlaci´on. En la parte de an´ alisis de las distribuciones se representar´a cada caracter´ıstica por separado, y se calcular´ a el histograma a partir de todos los valores que los vectores toman para una caracter´ıstica determinada, construyendo a partir de ´esta su funci´on de probabilidad. M´as concretamente se calcular´a cu´al es la funci´ on de probabilidad que mejor se ajusta al histograma, eligiendo entre cinco tipos: distribuci´ on normal, normal logar´ıtmica, exponencial, gamma y Weibull. Una vez calculadas las distribuciones para cada enfermedad, se superpondr´ an para comprobar en qu´e casos las distribuciones se superponen

6.3 - Descripci´ on del algoritmo de an´ alisis de las caracter´ısticas

95

Crear bases de datos

Eliminaci´ on de at´ıpicos por

Analisis multivariante

An´alisis de componentes principales

An´alisis de conglomerados (clustering )

kurtosis

An´ alisis de las distribuciones

Seleccionar caracter´ısticas

∃ at´ıpicos NO SI Eliminaci´ on manual de at´ıpicos

Suficientes

Figura 6.1: Diagrama de flujo del an´ alisis de caracter´ısticas

m´ as y en cuales los conjuntos son m´ as disjuntos. Se considerar´an aquellas caracter´ısticas cuyas distribuciones superponesuperpuestas queden m´as separadas, pues explicar´an mejor las diferencias entre las enfermedades. En cuanto al an´ alisis de conglomerados, se ha dise˜ nado un algoritmo gen´etico que permite detectar clusters suficientemente separados y concentrados de forma esf´erica (se basa en la distancia de los puntos de una nube a su centro de gravedad). Gracias a este algoritmo se podr´a cuantificar qu´e conjuntos de caracter´ısticas generan grupos m´ as concentrados de forma esf´erica y suficientemente separados como para considerarlos disjuntos o cuasi -disjuntos, por comparaci´on de los resultados del clustering y de los grupos originales. ´ El algoritmo de kurtosis se ejecutar´ a a partir de todos los datos, para cada una de las matrices. Este calcular´ a cu´ ales son los vectores at´ıpicos a partir de las caracter´ısticas seleccionadas y del conjunto de vectores, detectando cu´ ales son los puntos que est´an fuera de la nube (no est´an correlados) de forma multivariante. De igual manera detectar´a si existen peque˜ nos grupos no correlacionados con el total, marc´ andolos como posibles at´ıpicos y posteriormente dictando sentencia para eliminarlos. Tras el algoritmo de kurtosis, bas´ andonos en la forma de los histogramas para cada una de las caracter´ısticas, limpiaremos de nuevo el conjunto de vectores considerados por el algoritmo como buenos. Finalmente estaremos en condiciones, a partir de toda la informaci´on obtenida, de seleccionar aquellas caracter´ısticas m´ as significativas y decidir si con ´estas es suficiente o si por el contrario es necesario estudiar otros m´etodos de caracterizaci´ on del temblor (v´eanse las caracter´ısticas nuevas en el cap´ıtulo 5). Como nota remarcable, tras el an´ alisis de las caracter´ısticas se habr´a reducido el n´ umero de caracter´ısticas, pero para nuesta desfortuna tambi´en el n´ umero de vectores. Habr´a que encontrar el equilibrio entre la eliminaci´ on de vectores y la reducci´on de la dimensi´on para no quedarnos en la misma situaci´ on

96

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

de partida (insuficiencia del tama˜ no muestral respecto de la dimensi´on del espacio).

6.4. 6.4.1.

An´ alisis de datos multivariante (A.D.M.) Introducci´ on

El an´ alisis de datos multivariante es una rama de las matem´aticas muy desarrollada, y sobre la que existe numerosa bibliograf´ıa. Hay muchas t´ecnicas, desde un an´alisis sencillo de las correlaciones hasta algoritmos complejos de detecci´ on de relaciones no lineales entre variables o de detecci´on de conjuntos. En este proyecto se han tratado cuatro t´ecnicas de an´alisis de datos multivariante, a saber: An´ alisis sencillo de relaciones lineales y dispersi´on univariante (descripci´on multivariante). An´ alisis de componentes principales An´ alisis de datos at´ıpicos. An´ alisis de conjuntos (clustering mediante algoritmos gen´eticos1 ). La primera de estas t´ecnicas es la que aqu´ı denominamos an´ alisis multivariante, tomando el nombre del todo por el de la parte para resumir en la notaci´on. La descripci´ on multivariante de datos suele ser de gran ayuda antes de emprender estudios m´as complejos de los datos, pues en ocasiones las variables est´an relacionadas de forma lineal y se puede simplificar el espacio prescindiendo de una (o algunas) de ellas.

6.4.2.

Datos multivariantes

En general el A.D.M. puede aplicarse a cualquier tipo de variable, tanto cuantitativa como cualitativa. En el segundo caso bastar´ a con codificar las variables num´ericamente para poder tratarlas como variables cuantitativas. En nuestro caso las variables son num´ericas y definidas sobre IRp y INp , pero sin p´erdida de generalidad diremos que las variables est´ an definidas sobre IRp (consideraremos las variables discretas como continuas). La matriz de datos Como se ha expuesto, las matrices de datos de partida son de tama˜ no r × p porque hemos observado p variables num´ericas en un conjunto de r individuos. Cada una de estas p variables son las caracter´ısticas, y son variables univariantes, y el conjunto de las p variables en cada uno de los r individuos forman una b cuyas filas son los individuos y variable multivariante. Definiremos la matriz de datos originales como X, cuyas columnas son las observaciones de las caracter´ısticas para cada individuo:  x11  x  21  .  .  . b X=   xi1   .  ..  xr1

x12

···

x1j

···

x22 .. .

··· .. .

x2j .. .

··· .. .

xi2 .. .

··· .. .

xij .. .

··· .. .

xr2

···

xrj

···



  b1 x    b  x2p  2  x   ..    ..  .   .  =     b  xip   x   i  .  ..   .  .    .  br xrp x x1p

(6.1)

ei es el individuo i considerando todas las caracter´ısticas. donde x Las t´ecnicas m´ as habituales para el an´ alisis de datos univariantes consisten en calcular la media y la desviaci´ on t´ıpica como una aproximaci´ on a los datos, y tras ello estudiar otros valores relacionados con los mismos. En el anexo B (183) se explican algunos de estos valores m´as significativos, de entre los cuales hay que destacar el coeficiente de asimetr´ıa y el coeficiente de homogeneidad. Para mas informaci´on sobre el primero l´ease la definici´ on de la caracter´ıstica c37 (p´agina 72). El coeficiente de homogeneidad es siempre mayor o igual que cero (ver definici´on en anexo), y de ´el se desprende el coeficiente de 1 El

empleo de algoritmos gen´ eticos para la detecci´ on de conjuntos no suele incluirse como t´ ecnica de clustering, ´ esta herramienta ha sido completamente desarrollada en este trabajo

6.4 - An´ alisis de datos multivariante (A.D.M.)

97

kurtosis, que ser´ a mayor o igual que uno [Pe˜ na, 2002]. Ambos coeficientes miden la relaci´on entre la variabilidad de las desviaciones y la desviaci´on media, y se puede comprobar que cuando hay pocos valores at´ıpicos muy alejados del resto, la variabilidad de las desviaciones ser´a grande, y por tanto el coeficiente de kurtosis ser´ a alto. Sin embargo, si los puntos se distribuyen en dos mitades muy alejadas entre s´ı (hay dos subconjuntos separados), las desviaciones de todos los datos ser´an similares, y la media estar´ a aproximadamente equidistante de todos los puntos, produciendo un coeficiente de kurtosis bajo. Como se ver´ a en la secci´ on correspondiente a la eliminaci´on de at´ıpicos, la medida de la heterogeneidad puede verse alterada por la presencia de grupos minoritarios alejados del resto, y la detecci´on de estas observaciones supone la piedra angular para una correcta descripci´on de la mayor´ıa de los datos, ya que estos outliers 2 distorsionan los valores descriptivos del conjunto como la media o la desviaci´on t´ıpica (y en consecuencia el histograma y la funci´on de distribuci´on). Todos estos son valores descriptivos univariantes que pueden extrapolarse al campo multivariante mediante los conceptos de matriz de varianzas y covarianzas, vector de medias o coeficiente de kurtosis multivariante. En el primer caso, la matriz de covarianzas resultar´a de gran ayuda para detectar las relaciones entre las variables, pues gracias al estudio de sus autovalores y autovectores se pueden encontrar nuevas proyecciones en el espacio de los datos en las cuales la variabilidad sea m´axima. De esta manera, podremos expresar los datos mediante las proyecciones con m´as variabilidad, pudiendo descartar aquellas para las cuales apenas s´ı hay desviaci´ on, pues no aportan gran informaci´on sobre los individuos. Esto es lo que se conoce como an´ alisis de componentes principales, y su estudio se realiza m´as adelante (secci´on 6.5). b y tiene la siguiente estructura: Se define la matriz de covarianzas de los datos originales S, 

s11

 s  21  .  .  . b S=  sj1   .  ..  sp1

s12

···

s1k

···

s22 .. .

··· .. .

s2k .. .

··· .. .

sj2 .. .

··· .. .

sjk .. .

··· .. .

sp2

···

spk

···

s1p



 s2p   ..   .    sjp   ..  .   spp

(6.2)

La diagonal representa la varianza de cada una de las variables, y cada elemento sj,k , con j 6= k, representa la covarianza entre las variables j y k, es decir, la relaci´on lineal que existe entre las caracteristicas j y k. As´ı, cuando la covarianza es muy grande (muy positiva), existe una relaci´on lineal directa muy fuerte entre las variables, correspondiendole los valores grandes de una a los valores grandes de la otra. Cuando la covarianza es cero las variables no est´an correladas, y la forma de la nube de puntos tiende a ser un c´ırculo (en IR2 porque la correlaci´on se mide entre dos variables). Cuando la covarianza es muy negativa la relaci´ on es lineal inversa, correspondi´endole los valores grandes de una a los peque˜ nos de la otra. Finalmente, el coeficiente de kurtosis multivariante tiene inter´es porque, adem´as de seguir teniendo las mismas propiedades que en el caso univariante, resulta ser inmune a las transformaciones lineales [Pe˜ na, 2002]. No obstante, en este trabajo s´olo nos hemos interesado por el coeficiente de kurtosis univariante. Descripci´ on de los datos multivariantes Obtener buenas representaciones de datos multivariantes es un problema dif´ıcil, pues en el momento que vamos m´ as all´ a de IR3 resulta complicado situarse en medio de los datos para obtener un punto de vista comprensible. Existen, sin embargo, algunas alternativas a la intensa imaginaci´on que supondr´ıa el primer m´etodo, y aqu´ı se han empleado tres de ellas. En primer lugar, en cualquier an´ alisis de datos multivariante suele ser interesante representar los histogramas de cada una de las variables por separado, as´ı como su diagrama de caja. Estas representaciones permiten detectar de un vistazo asimetr´ıas, heterogeneidad y datos at´ıpicos, pero nada dicen sobre las relaciones entre las variables. En segundo lugar, se pueden emplear diagramas de dispersi´on de las parejas de variables para ver las relaciones que existen entre cada par de caracter´ısticas. Particularmente, estas representaciones son 2 outlier :

Del ingl´ es: observaci´ on at´ıpica.(Nota de la traducci´ on)

98

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

u ´tiles para detectar las relaciones no lineales, pues en estos casos el estudio de la matriz de covarianzas no entregar´ıa buenos indicadores de este tipo de dependencias. Por u ´ltimo se han representado ternas de variables en IR3 , con lo que girando el punto de vista en el monitos podemos observar la estructura de los datos en el espacio que conocemos3 . Gracias a esta representaci´ on se han podido visualizar los resultados del algoritmo gen´etico, dibujando esferoides alrededor de las nubes de puntos cuyos ejes correponden con las direcciones de m´axima dispersi´on de cada una de ellas.

6.4.3.

Criterios de an´ alisis

Con la descripci´ on multivariante se pretende realizar un primer sondeo de las caracter´ısticas. Hay que tener en cuenta que se trabaja con varias matrices de datos, y son de naturaleza distinta. El inter´es de esta herramienta en este proyecto reside no solo en encontrar las relaciones entre las caracter´ısticas para un conjunto de datos determinado, sino tambi´en poder emplearla para encontrar las relaciones con los otros conjuntos de datos. A priori esto no parece demasiado intuitivo, pero superponiendo los diagramas de dispersi´on de los datos podemos obtener una idea de cu´ ales son los pares de caracter´ısticas que permiten distinguir mejor los grupos. En primer lugar ser´ a interesante superponer los valores que toman las distintas caracter´ısticas para los distintos tipos de patr´ on dentro de una misma enfermedad, para comprobar que, por ejemplo, el temblor es m´ as intenso en el Parkinson cuando se est´a en reposo que cuando est´a en movimiento intencionado o venciendo una fuerza. En segundo lugar, al superponer los diagramas de dispersi´on bivariante de todas las enfermedades podemos observar distintas informaciones, seleccionando los conjuntos que se desea mostrar. Por ejemplo, si queremos comprobar las relaciones bivariantes de los patrones est´aticos de todas las enfermedades, seleccionaremos solo los conjuntos de los patrones est´aticos de cada enfermedad y los superpondremos en la figura. Si por el contrario queremos mostrar solo el patr´on PT15 por ejemplo, entonces seleccionaremos el PT15 de cada enfermedad. Tambi´en se pueden juntar todos los conjuntos y observar la disposici´on de las nubes de puntos de manera global. Respecto de los histogramas, nos van a permitir ver la forma de las distribuciones por separado. Cargo de ello se hace la secci´ on 6.6, en la que se analizan no solo los histogramas sino las distintas distribuciones a las que se ajustan los mismos.

6.4.4.

Objetivo

El objetivo del empleo de esta herramienta es crear un primer conjunto de caracter´ısticas seleccionadas como candidatas al subespacio deseado. A partir de la validaci´on de los criterios de an´alisis establecidos m´ as arriba podremos desechar aquellas caracter´ısticas que: Generen pares de conjuntos muy superpuestos Est´en muy correladas con otras caracter´ısticas. No aporten demasiada informaci´ on debido a una baja variabilidad. En el tercero de los casos habr´ a que apoyarse tambi´en en los histogramas y diagramas de caja, pues a simple vista a partir del diagrama de dispersi´ on bivariante no es tan sencillo darse cuenta de la variabilidad de una caracter´ıstica. Para ello hay que fijarse en c´omo influye una caracter´ıstica de manera global en las dem´ as: si la caracter´ıstica j frente a la caracter´ıstica k, ∀k ∈ (1, . . . , p) genera nubes de datos muy horizontales o muy verticales, significar´ a que esta nube depende b´asicamente de los valores que tome la caracteristica k, mientras que la j permanecer´a constante. Si la eliminamos no perderemos informaci´on sobre la distribuci´ on de los datos.

6.4.5.

Resultados y conclusiones

Dado el gran n´ umero de posibles combinaciones entre patrones o tipos de patr´on entre las enfermedades o dentro de una misma enfermedad, conviene distinguir los diferentes casos de estudio de manera detallada. 3 Este

tipo de visualizaci´ on suele denominarse Gran tour [Pe˜ na, 2002].

6.4 - An´ alisis de datos multivariante (A.D.M.)

99

De esta manera, estudiaremos en primer lugar los diferentes tipos de agrupaciones dentro de una misma enfermedad de acuerdo con los tipos de patr´on y los propios patrones. A continuaci´on procederemos a realizar el estudio m´ as centrado en la distinci´on entre enfermedades, en las cuales estudiaremos las relaciones entre los tipos de patr´ on y los patrones entre las propias enfermedades, fijando los primeros. En la figura 6.2 se muestra la jerarqu´ıa de casos de estudio para la descrip ci´ on multivariante. Este diagrama ser  En temblor esencial   vir´ a para posteriores an´ alisis, pues en Entre patrones En Parkinson general resultar´ a interesante aplicar es   te m´etodo.  En pacientes sanos Antes de nada, se recomienda visualizar la figura 6.9 (p´ ag. 108), en la que   aparece un diagrama de dispersi´ on biva   Est´aticos      riante en el que se visualizan las nubes    Tipos de patr´on Cin´eticos  de puntos correspondientes a la uni´ on        de los vectores de todos los patrones,  Din´amicos     y variando las enfermedades. Como se     puede comprobar, este tipo de diagra   mas ocupan espacio, sobre todo si tra PT1 Entre enfermedades     bajamos con muchas variables. Por ello,  ..   Patrones  en algunos casos solo mostraremos las    .     relaciones entre las caracter´ısticas en las   PT18    que se focaliza la explicaci´ on.          Todos en conjunto Estudio entre patrones Nos centraremos aqu´ı en fijar la enFigura 6.2: Diagrama de los casos de estudio fermedad y superponer los conjuntos correspondientes a los distintos tipos de patr´on. En este caso estudiaremos los conjuntos sin eliminar los at´ıpicos, para tener una idea de los datos con los que se est´a trabajando.

Temblor esencial Los pacientes de temblor esencial no son demasiado numerosos. Como se vio en el cap´ıtulo de introducci´ on (p´ ag. 13), se cuenta con un total de 147 vectores, contando con los patrones est´ aticos, cin´eticos y din´ amicos. Esto implica que de ahora en adelante, habr´a que ser cuidadoso con la interpretaci´ on de los resultados entregados en el estudio del temblor esencial, pues si ya son pocos, al eliminar los at´ıpicos ser´ an a´ un menos. El temblor esencial, recordando, suele producirse en movimientos intencionados, y con frecuencia no est´ a presente en reposo. Concretamente en nuestros pacientes, hay no pocos casos en los que el temblor result´ o ser d´ebil, por lo que la frecuencia de corte del filtro producir´a el m´aximo del espectro. Puesto que el PSD est´ a relacionado directamente con el espectro, este m´aximo se manifestar´a tembi´en en la caracter´ıstica c2 , fm´ax (P SD) , lo que justifica el histograma de la figura 6.3 correspondiente al elemento (2, 2) de la matriz de dispersi´ on bivariante. Tambi´en en esta figura podemos observar lo que se predijo: algunas caracteristicas no aportan demasiada variabilidad, por lo que su relaci´on con otras caracter´ısticas consiste en una l´ınea bien sea horizontal (caracteristica j vs. k) o vertical (k vs. j). Adem´ as, en este diagrama puede apreciarse que algunas caracteristicas como la seis (N0,72 % (P SD) ) se encuentran entre dos valores (ver histograma de la c6 ), por lo que al enfrentarse a caracter´ısticas de baja varianza generan distribuciones en forma de L. Esto, evidentemente, no es una relaci´on lineal, por lo que la matriz de covarianzas en este caso no ser´a un buen indicador de la dependencia entre estas caracter´ısticas. En la figura 6.4 se puede ver c´ omo algunas caracter´ısticas est´an ´ıntimamente relacionadas de forma lineal, mientras que, una vez m´ as otras caracter´ısticas no aportan gran variabilidad. Nota 10: Sobre las caracter´ısticas para mostrar Desde ahora en adelante, por motivos que el lector comprender´a, se mostrar´an u ´nicamente las caracter´ısticas m´ as significativas para la descripci´on por D.D.B., pues as´ı se podr´an apreciar mejor las explicaciones.

300 200 100 0 8 6 4 10

c. 1

5

c. 2

1000

0 2000

c. 3

0 30 20 10 500 400 300 200 100 500 400 300 200 100

c. 4

c. 5

c. 6

2

100 200 300 c. 1

6

10

4

6 c. 2

8 0

5 c. 3

10 0

1000 c. 4

2000

10

20 c. 5

30

100200300400500 100200300400500 4 c. 6 c. 7

6

8 10 12 0 c. 8

2

4 6 c. 9 x 10

10

0

2 c. 10

Estaticos (22 puntos) Cineticos (97 puntos) Dinamicos (28 puntos)

4 x 10

6

Figura 6.3: Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas c1 − c10 de los pacientes de temblor esencial. Se superponen los grupos de patrones est´ aticos, cin´eticos y din´ amicos. En la diagonal se muestra el histograma de los tres conjuntos unidos

0

0

12 10 8 6 4 x 10 6 4 2 0 x 10 4

c. 7

c. 8

c. 9

c. 10

100 Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

6.4 - An´ alisis de datos multivariante (A.D.M.)

101

c. 12

500

Estáticos (22 puntos) Cinéticos (97 puntos) Dinámicos (28 puntos)

0 −500 −1000 x 10

5

2 c. 13

0 −2 −4 −6 8000 c. 14

6000 4000 2000 9

0 x 10 2.5

c. 15

2 1.5 1 0.5 0

c. 16

2 0 −2 −4 −1000

−500

c. 12

0

500

−6

−4

−2 c. 13

0

2 x 10

5

0

2000

4000 c. 14

6000

8000

0

1 c. 15

2 x 10

9

−4

−2

c. 16

0

2

Figura 6.4: D.D.B.de las caracter´ısticas c12 a c16 del conjunto de los pacientes de temblor esencial. Como se ve, existen grandes dependencias lineales entre las caracter´ısticas doce, trece y diecis´eis, mientras que las caracter´ısticas catorce y quince son muy poco variantes.

En definitiva, en el caso de los enfermos de esencial, las caracteristicas m´as interesantes para mostrar son las que se muestran en la figura 6.5. Como se puede observar, se han descartado bastantes caracter´ısticas, entre las cuales algunas de las mostradas en la figura 6.4. Esto es debido a que, como existe una buena dependencia lineal entre ellas, una puede explicar las dem´as. Es como si de una clase de alumnos se calcularan todas las notas obtenidas en lengua, matem´aticas y f´ısica: las dos u ´ltimas estar´ıan bastante correladas, pues los alumnos que tienen facilidad para las matem´aticas tambi´en se les da bien la f´ısica, por lo que la una explica a la otra y para tener una idea del tipo de alumno basta con observar sus notas de lengua y matem´ aticas. En cuanto a las otras caracter´ısticas descartadas, en general se debe al mismo motivo que para las anteriores, a la correlaci´ on, aunque en otros casos simplemente se han descartado porque los vectores estaban muy superpuestos y, por lo tanto, no eran interesantes para la diferenciaci´on entre tipos de patr´ on. No obstante, como se puede percibir, los vectores siguen superponi´endose bastante en las caracter´ısticas seleccionadas, lo cual anticipa una gran dificultad para la distinci´on entre los patrones de reposo y los voluntarios. Pese a ello, s´ı pueden sacarse algunas conclusiones de esta figura: En primer lugar, la caracter´ıstica c2 presenta dos picos, cuando normalmente deber´ıa presentar uno solo: se trata de la frecuencia a la que se produce el m´aximo del PSD. La presencia de estos dos picos en el histograma puede deberse a dos causas: • Una considerable presencia de at´ıpicos. • Temblor muy d´ebil en algunos casos, por lo que la frecuencia de corte explicar´ıa el pico a frecuencia m´ as baja. En cualquier caso, como veremos, consideraremos la primera agrupaci´on del histograma como at´ıpica, por lo que todos los vectores asociados al primer pico deber´ıan desaparecer. Este hecho es importante, pues se reduce bastante el n´ umero de individuos4 . Por otra parte, la c2 tiene una buena correlaci´on con la caracter´ıstica c32 (fm´ax (P SDx ) ). Esto se debe a que la c32 est´ a tambi´en relacionada con la frecuencia del m´aximo del PSD, pero en el eje 4 Desde ahora nos referiremos indistintamente por vector o individuo para denominar a cada uno de los vectores de un conjunto, no se trata por tanto de un paciente en concreto, sino de uno de los vectores desprendidos de la realizaci´ on de las pruebas.

c. 2

c. 5

c. 12

c. 21

c. 31

c. 32

c. 33

c. 35

1.5

2

5 4 3 2 1 2.5

20 15 10 5

4

6

10 500 0 −500 −1000 10 8 6 4 0.8 0.6 0.4 0.2 8

20

30

4

6

8

4

c. 2

6

8

10

20 c. 5

30 −1000−500 0 c. 12

500

5 c. 21

10

0.2

0.4 0.6 c. 31

0.8

4

6 c. 32

8

5

10 15 c. 33

20

1

2

3 4 c. 35

5

1.5

2 c. 38

Estaticos (22 puntos) Cineticos (97 puntos) Dinamicos (28 puntos)

2.5

Figura 6.5: Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´ on, de los pacientes de temblor esencial. Se superponen los grupos de patrones est´ aticos, cin´eticos y din´ amicos. En la diagonal se muestra el histograma de los tres conjuntos unidos

c. 38

102 Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

6.4 - An´ alisis de datos multivariante (A.D.M.)

103

X, por lo que debe coincidir con la frecuencia a la que se produce el m´aximo de la direcci´on m´ as temblorosa. La caracteristica c5 (m4 (P SD) ), la kurtosis, parece tomar valores m´as grandes en el caso de los patrones cin´eticos. Parece l´ ogico, pues este par´ametro tomar´a valores m´as grandes si el conjunto de datos sobre el que se calcula contiene pocos valores at´ıpicos respecto del resto y, puesto que se est´ a calculando sobre el conjunto de valores que toma el PSD, significa que la mayor´ıa est´a concentrado alrededor de un punto, el m´aximo del PSD. Es consecuente con el hecho de que el temblor en el caso de temblor esencial se acent´ ua con el movimiento, adquiriendo m´as importancia en el espectro y, por tanto, aumentando el valor del m´aximo respecto del resto de frecuencias. Es l´ ogico tambi´en que esta caracter´ıstica no est´e aparentemente correlada con ninguna otra, pues es un caso muy particular de la PSD. En general se tienen pocas pruebas de patrones est´aticos, pero el caso del temblor esencial es m´ as acusada esta falta. Por ello no pueden sacarse conclusiones que puedan tomarse como v´alidas, aunque s´ı ayudan para hacerse una idea de qu´e es lo que se podr´ıa obtener si los recursos fueran mejores. En esta figura no se consigue distinguir demasiado bien, pero como se ver´a en el an´alisis de las distribuciones, la caracter´ıstica c38 (H(q)) parece aislar los patrones cin´eticos de los din´amicos. Parkinson Algo similar ocurre con los pacientes de Parkinson. En este caso tambi´en hay caracter´ısticas que no aportan gran informaci´ on, y otras que est´an muy correladas. Sin embargo, es m´as interesante trabajar con estos datos, pues su n´ umero es mucho mayor. El caso de los pacientes de Parkinson entrega como caracter´ısticas seleccionadas el conjunto {c2 , c2 , c5 , c21 , c23 , c27 , c29 , c32 , c35 , c37 , c38 }. En la figura 6.6 se muestran las relaciones entre pares de este conjunto. Sin duda, aqu´ı se aprecia que el n´ umero de patrones cin´eticos realizados es mucho mayor que el n´ umero de patrones est´ aticos o din´ amicos (del orden de cinco veces mayor). De esta figura se desprenden algunas conclusiones interesantes sobre los at´ıpicos, pero antes de entrar con ellas, hay que recordar que el Parkinson es un temblor que suele manifestarse en reposo, sin intenci´ on, y que conforme aumenta la necesidad de vencer una inercia en el movimiento, el temblor desaparece. Hecho el inciso, las conclusiones son: La caracter´ıstica c2 parece muy concentrada, pero simplemente es debido a una escala desajustada por la presencia de lo que claramente son at´ıpicos. Como se puede ver, estos at´ıpicos corresponden a los vectores originados a partir de los patrones din´amicos, lo cual es consecuente con el hecho de que la presencia del temblor aqu´ı es mucho menor (casi nula) y, por lo tanto, el espectro es bastante plano. No solo puede suceder que al ser el espectro tan plano el m´aximo aparezca en la frecuencia de corte, sino que si la pendiente del espectro se pr´acticamente se anula antes de fc , entonces el m´ aximo corre el riesgo de aparecer el cualquier punto entre la frecuencia de corte y la frecuencia de Niquist5 En los sucesivos m´etodos de an´ alisis se comprobar´a que el conjunto de frecuencias a las que se produce el m´ aximo del PSD se encuentran en torno a f = 4H z. Una de las limitaciones de la visualizaci´on en forma de D.D.B. de varios conjuntos superpuestos reside en que, en efecto, se superponen, por lo que se ocultan algunos puntos. En todos los casos, se dibujan los vectores est´ aticos en primer lugar, seguidos de los cin´eticos y despu´es de los din´amicos. Respecto a algunas caracter´ısticas como la c35 o la c27 , hay que decir que tras un an´alisis individual se ha podido comprobar que se consiguen separar bastante bien, y de manera consecuente, los grupos de patrones. As´ı, en la caracter´ıstica c27 , (T R6 ) los vectores est´aticos se acumulan bastante alrededor del 100 %, mientras que los vectores de otros tipos de patr´on se distribuyen de manera m´ as dispersa. Concretamente dentro de los patrones est´aticos se consideran dos patrones, a saber, el PT1 y el PT2. El primero se considera un reposo puro, pues el codo est´a en contacto con la mesa, mientras que el segundo es un reposo din´amico, pues se mantiene la posici´on (reposo) pero con el brazo extendido (din´ amico porque tiene que vencer el peso del brazo). Esto explicar´ıa que algunos vectores est´ aticos tuvieran menor porcentaje de temblor. 5 La

frecuencia de Niquist corresponde a la mitad de la frecuencia de muestreo, fN = 50Hz =

6T R

es la relaci´ on de ventanas temblorosas respecto del total de ventanas en una trayectoria.

1 fs 2

c. 2

c. 5

c. 21

c. 23

c. 27

c. 29

c. 32

c. 35

c. 37

1.5

2

0 0.8 0.6 0.4 0.2 12 10 8 6 4 6 4 2 06 4 2 0 −2 −4 2.5

50

0 100

200

400

10 8 6 4 2

0 30 20 10

20

40

0

20 c. 2

40

10

20 c. 5

30

2

4

6 8 10 c. 21

0

200 400 c. 23

0

50 c. 27

100 0.2 0.4 0.6 0.8 c. 29

4

6 8 10 120 c. 32

2

4 c. 35

6−4 −2

0 2 c. 37

4

6 1.5

2 c. 38

2.5

Estaticos (116 puntos) Cineticos (377 puntos) Dinamicos (186 puntos)

Figura 6.6: Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´ on, de los pacientes de Parkinson. Se superponen los grupos de patrones est´ aticos, cin´eticos y din´ amicos. En la diagonal se muestra el histograma de los tres conjuntos unidos

c. 38

104 Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

6.4 - An´ alisis de datos multivariante (A.D.M.)

105

En general, los vectores cin´eticos presentan mayor variabilidad que los dem´as (por ejemplo, en el enfrentamiento de las caracter´ısticas c37 y c38 los vectores din´amicos presentan una correlaci´on m´ as alta en valor absoluto que los patrones cin´eticos). Esto puede deberse a la distinta naturaleza de los patrones, pues en algunos casos el temblor puede aparecer con m´as intensidad que en otros, pese a ser ambas pruebas cin´eticas. Pacientes sanos El caso de estos tipos de pacientes es, como se ha comentado, delicado. Los resultados tras la etapa de an´ alisis espectral muestran que la no existencia de una frecuencia de temblor dominante implica un espectro pr´ acticamente decreciente en todas las frecuencias, por lo que el m´aximo del PSD se encontrar´ a con mucha probabilidad en la frecuencia de corte del filtro. En la figura 6.7 se muestran las caracter´ısticas seleccionadas enfrentadas dos a dos. En esta figura se percibe algo parecido al caso de Parkinson: en la caracter´ıstica c2 aparecen algunos vectores at´ıpicos que nos impiden ajustar el eje de abscisas. La justificaci´on es similar, pues los pacientes sanos no presentan apenas temblor, generando un espectro muy plano. Es interesante, sin embargo, la conclusi´on desprendida de la caracteristica veintisiete: los vectores est´ aticos presentan un porcentaje menor de temblor que los otros dos tipos de patr´on. Esto explica que cuando una persona sana est´ a en reposo apenas s´ı tiemble, mientras que al aumentar la concentraci´ on o al tener que seguir un patr´ on, por el hecho de intentar hacerlo bien e ir corrigiendo, tendamos a crear m´ as variaciones, pues contraemos m´ as los m´ usculos para intentar mantener una trayectoria muy concentrada. En la caracter´ıstica c35 se puede ver c´omo en general los tres grupos est´an bien diferenciados. Nota 11: El estudio de patrones separados El estudio fijando la enfermedad y variando los patrones se realizar´a con m´as intensidad en las otras t´ecnicas, pues en ellas se pueden apreciar mejor las diferencias que existen entre cada prueba.

Estudio entre enfermedades La parte m´ as interesante de este proyecto no es el estudio de los tipos de patr´on, sino el estudio de c´ omo estos tipos de patr´ on var´ıan al encontrarnos ante una enfermedad u otra. En este apartado nos centraremos en estudiar la superposici´on de los distintos tipos de patr´on m´ as que de superponer los patrones por separado para cada enfermedad, pues como se ha remarcado en la nota anterior, son otras las secciones en las que se hace m´as hincapi´e. Si bien en la figura 6.9 se muestra una visi´on global de los enfrentamientos por parejas de caracter´ısticas de entre todas las descritas en el cap´ıtulo anterior, esta no es la que mejor informaci´on aporta sobre c´ omo se diferencian las distintas enfermedades. En esta figura se han superpuesto los conjuntos correspondientes a la unificaci´ on de los vectores extra´ıdos de todos los patrones, impidiendo mostrar c´omo se diferencian los pacientes de Parkinson con los pacientes de temblor esencial respecto de las pruebas de reposo, por ejemplo. Sin embargo, en las figuras 6.8, 6.10 y 6.11, s´ı que se muestran estos casos particulares de comparaci´ on de grupos de vectores. Estudio de los patrones est´ aticos Es el primero de los casos de estudio que se van a abordar empleando A.D.M.En la figura 6.8 se han seleccionado pr´acticamente las mismas caracter´ısticas que en el estudio fijando enfermedades, y es que resulta que en general ´estas ser´an las caracter´ısticas m´ as interesantes para este trabajo. La caracter´ıstica c2 presenta el eje de abscisas comprendido entre f = 0Hz y f = 8Hz. Esto indica que en el caso de los patrones est´ aticos ning´ un tipo de paciente ha presentado un espectro tan plano como para dar lugar a casos at´ıpicos en frecuencias altas. Sin embargo, hay un paciente sano que ha generado un vector at´ıpico a una frecuencia por debajo incluso de la de corte, lo cual es completamente err´ oneo. Este es un caso at´ıpico que habr´ a que tratar. Vemos que en general en esta caracteristica los valores que no se acumulan alrededor de la frecuencia de corte corresponden a los de los pacientes de Parkinson. En estos casos, los puntos verdes est´ an ligeramente m´as hacia la derecha que el resto, pero siendo coherente con la frecuencia de entre cuatro y cinco Hz que caracteriza al temblor parkinsoniano en reposo. Es l´ogico, por tanto, que aqu´ı destaque el Parkinson, pues se trata de un temblor postural. Respecto de la caracteristica c27 , es justamente el grupo de Parkinson el que se acumula alrededor del cien por cien (recordando que la c27 es el porcentaje de temblor). Por el contrario, tanto los vectores de

c. 2

c. 5

c. 21

c. 24

c. 27

c. 29

c. 32

c. 35

1.5

2

0 2.5

2

4

5

0 10

0.5

0 1

50

0 100

50

100

0

5

0 10

20

40

0 60

20

40

0

20 c. 2

40

0

20

40 c. 5

60

0

5 c. 21

10

0

50 100 c. 24

0

50 c. 27

1000

0.5 c. 29

1

5

c. 32

10

0

2 4 c. 35

1.5

2 c. 38

2.5

Estaticos (89 puntos) Cineticos (385 puntos) Dinamicos (167 puntos)

Figura 6.7: Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´ on, de los pacientes sanos. Se superponen los grupos de patrones est´ aticos, cin´eticos y din´ amicos. En la diagonal se muestra el histograma de los tres conjuntos unidos

c. 38

106 Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

c. 2

c. 5

c. 21

c. 24

c. 27

c. 29

c. 32

c. 35

1.5

2

0 2.5

2

4

4

6

0 0.8 0.6 0.4 0.2 0

50

0 100

50

100

0

5

10

10

20

0

2

4 c. 2

6

8

10

20 c. 5

30

0

5 c. 21

10

0

50 100 c. 24

0

50 c. 27

1000

0.2 0.4 0.6 0.8 c. 29

4

c. 32

6

0

2 4 c. 35

1.5

2 c. 38

2.5

Esencial (22 puntos) Parkinson (116 puntos) Sanos (89 puntos)

Figura 6.8: Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´ on, en el caso de estudio del conjunto de los patrones est´ aticos. Se superponen vectores de temblor esencial, Parkinson y de pacientes sanos. En la diagonal se muestra el histograma de los tres conjuntos unidos

c. 38

8 6 4 2 0 30

6.4 - An´ alisis de datos multivariante (A.D.M.)

107

108

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

12

13

16

Figura 6.9: Histograma de dispersi´ on bivariante de las treinta y nueve caracter´ısticas originales de todos los pacientes. En rojo se muestran los vectores correspondientes a las caracter´ısticas extra´ıdas de los pacientes de temblor esencial, en verde los vectores de parkinson, y en azul los de los pacientes sanos.

6.4 - An´ alisis de datos multivariante (A.D.M.)

109

No se han a˜ nadido los valores en los ejes para simplificar la figura. V´eanse las figuras 6.8, 6.10 y 6.11.En rojo se muestran los vectores correspondientes a las caracter´ısticas extra´ıdas de los pacientes de temblor esencial, en verde los vectores de parkinson, y en azul los de los pacientes sanos.

110

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

sanos como los de temblor esencial se presentan de manera m´as dispersa (estos u ´ltimos ocultos tras las nubes de sanos y Parkinson). La caracter´ıstica c35 , como ha venido sucediendo hasta ahora, parece ser un buen diferenciador de grupo, pues se pueden ver bastantes valores de cada color en las dispersiones bivariantes de las que forma parte esta caracter´ıstica. La c21 parece mostrar tambi´en una buena aglomeraci´on de los pacientes sanos respecto del resto de vectores, y enfrentada a la caracter´ıstica c38 permite ver que en efecto la mayor variabilidad se produce en los otros dos grupos. Estudio de los patrones cin´ eticos En este caso se vuelve a observar que el n´ umero de vectores es mucho mayor (figura 6.10). Aqu´ı volvemos a detectar el mismo problema con los atipicos en la caracter´ıstica c2 : unos pocos vectores de pacientes sanos deforman la visi´ on del conjunto. Esto se explica de nuevo por un espectro plano y, por consiguiente, un PSD plano que corre el riesgo de entregar m´aximos en cualquier punto del espectro. La caracter´ıstica c32 muestra claramente la distribuci´on esperada: los vectores sanos concentrados alrededor de la frecuencia de corte, los de Parkinson a frecuencias ligeramente superiores y los de temblor esencial asom´ andose t´ımidamente a frecuencias de unos 7Hz. Concretamente al enfrentar c5 con c32 se puede apreciar este fen´ omeno, justificando el aumento del temblor en los pacientes de temblor esencial al introducir una naturaleza intencional en el movimiento de las pruebas. Resulta particularmente importante la diferenciaci´on que genera la caracter´ıstica c38 , sobre todo al enfrentarse con la c35 o la c21 . Estudio de los patrones din´ amicos En primer lugar, si ya el grupo de los pacientes de temblor esencial se presenta en el fondo de la figura, oculto por los otros dos grupos, en este caso resulta menos evidente su presencia debido a su reducido n´ umero respecto a los Parkinson o los sanos (del orden de cinco o seis veces menor). Aqu´ı sucede de nuevo la presencia de at´ıpicos, pero en esta ocasi´on se unen los vectores de Parkinson. Esto se debe a la planitud del espectro de ´estos, ya que nos encontramos en el tipo de pruebas en las que el temblor parkinsoniano tiende a desaparecer. Es remarcable que ning´ un vector de temblor esencial aparece en estos casos como vector at´ıpico, pues este tipo de patrones es donde m´as se manifiesta este tipo de temblor, por lo que el m´ aximo del espectro resultar´a m´as distinguible del resto de elementos del espectro. Por otra parte, la caracter´ıstica c24 presenta una buena relaci´on cuando se enfrenta a la c38 , permitiendo distinguir a los pacientes sanos m´ as concentrados que los otros grupos. La c5 , la kurtosis, presenta valores m´ as bajos para los enfermos de Parkinson y sanos, lo cual es coherente con la presencia de varios valores at´ıpicos en el espectro, frente a los valores altos de kurtosis para los pacientes de temblor esencial, en cuyo caso habr´a pocos valores at´ıpicos. Conclusiones sobre el an´ alisis de datos multivariable Hemos visto que los diagramas de dispersi´on bivariante permiten ver las dependencias entre las variables, observando solo las proyecciones de las nubes de datos sobre parejas de caracter´ısticas. Mediante el sondeo manual de todos los enfrentamientos posibles entre las variables hemos obtenido que, de manera general, las caracter´ısticas m´ as indicadas para realizar una buena diferenciaci´on son las mostradas en la tabla 6.1 Tabla 6.1: Tabla de caracter´ısticas seleccionadas a partir del estudio de datos multivariante (descripci´ on multivariante) Caracter´ısticas seleccionadas 2

5

21

24

27

29

32

35

38

fm´ax (P SD)

m4 (P SD)

m3 (diag|trisp)

N0,15 % (diag|trisp)

TR

ax

fm´ax (P SDx )

H(p)

H(q)

Adem´ as, se ha podido comprobar que los resultados son coherentes con la naturaleza de los temblores ante distintos tipos de movimientos, y que la presencia de at´ıpicos a´ un est´a ah´ı. Gracias a la visualizaci´on

c. 2

c. 5

c. 21

c. 24

c. 27

c. 29

c. 32

c. 35

1.5

2

0 2.5

2

4

6

5

10

0.5

1

50

0 100

50

100

5

0 10

20

40

10 20 30 40 50 0 c. 2

20

40 c. 5

60

5 c. 21

10

0

50 c. 24

100

50

c. 27

100

0.5 c. 29

1

5

c. 32

100

2

4 c. 35

6

1.5

2 c. 38

2.5

Esencial (97 puntos) Parkinson (377 puntos) Sanos (385 puntos)

Figura 6.10: Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´ on, en el caso de estudio del conjunto de los patrones cin´eticos. Se superponen vectores de temblor esencial, Parkinson y de pacientes sanos. En la diagonal se muestra el histograma de los tres conjuntos unidos

c. 38

50 40 30 20 10 60

6.4 - An´ alisis de datos multivariante (A.D.M.)

111

c. 2

c. 5

c. 21

c. 24

c. 27

c. 29

c. 32

c. 35

1.5

2

2.5

5 4 3 2 1

5

10

0.5

1

50

0 100

50

100

5

10

30 20 10

50 40 30 20 10

10 20 30 40 50 c. 2

10

20 c. 5

30

5 c. 21

10

0

50 c. 24

100

50 c. 27

100

0.5 c. 29

1

5

c. 32

10

1

2

3 4 c. 35

5

1.5

2 c. 38

2.5

Esencial (28 puntos) Parkinson (186 puntos) Sanos (167 puntos)

Figura 6.11: Diagrama de dispersi´ on bivariante (D.D.B.) para las caracteristicas seleccionadas para el an´ alisis en profundidad tras haber descartado las que aportan menor informaci´ on, en el caso de estudio del conjunto de los patrones din´ amicos. Se superponen vectores de temblor esencial, Parkinson y de pacientes sanos. En la diagonal se muestra el histograma de los tres conjuntos unidos

c. 38

112 Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

6.5 - An´ alisis de componentes principales

113

de los vectores de un spacio p-dimensional en varios subespacios bidimensionales se han podido detectar anomal´ıas en lso datos que han permitido corregir el dise˜ no del filtro, tal y como se dijo en el cap´ıtulo ?? En lo que sigue se seguir´ a trabajando en el campo del an´alisis de datos multivariable, pero concretamente en algunas t´ecnicas de an´ alisis m´as espec´ıficas.

6.5.

An´ alisis de componentes principales

Hemos visto en la secci´ on anterior c´ omo reducir la dimensi´on de forma manual eliminando las caracter´ısticas menos interesantes. Esto permite mantener la interpretaci´on de los datos en el nuevo espacio de dimensi´ on reducida, pero es posible que este nuevo espacio no sea el mejor en cuanto a la manera de representar los vectores. El an´ alisis de componentes principales tiene por objetivo reducir la dimensi´on de un conjunto de vectores a costa de perder una peque˜ na parte de la informaci´on contenida [Pe˜ na, 2002, Wallisch et al., 2014]. Mediante esta t´ecnica se consigue representar la informaci´on con un n´ umero reducido de variables construido a partir de combinaciones lineales de las originales. El fin es conseguir explicar la mayor parte de la variabilidad original (por ejemplo m´ as del 80 %) a partir de unas pocas variables (como el 20-30 %). La gran potencia de esta t´ecnica es que permite identificar variables ‘‘latentes’’ o no observadas de forma directa, pero que pueden ser una combinaci´on lineal de algunas que s´ı han sido medidas directamente. Adem´ as, permite transformar las variables originales, generalmente correladas (como se ha podido comprobar a partir de los diagramas de dispersi´on bivariante en la secci´on anterior) en nuevas variables incorreladas, ortonormales entre s´ı.

6.5.1.

Justificaci´ on de la repetici´ on

Este an´ alisis ya se realiz´ o en un trabajo anterior, con las caracter´ısticas descritas hasta el momento, y sin haber realizado un estudio sobre la eliminaci´on de los vectores at´ıpicos [L´opez, 2006]. En este proyecto se han considerado varias caracter´ısticas m´as, y tambi´en se han tratado los vectores at´ıpicos, lo que motiva la repetici´ on dell estudio de esta herramienta tan potente. Mediante el A.C.P.se pretende no solo estudiar las relaciones lineales existentes entre las direcciones de m´ axima dispersi´ on y las caracter´ısticas descritas, sino dar una idea del tama˜ no del espacio que debemos buscar en la tarea de depurar el n´ umero de caracter´ısticas consideradas.

6.5.2.

Concepto general

En el camino de encontrar un espacio de dimensi´on reducida sobre el que representar adecuadamente los datos mediante el A.C.P. hay que realizar la siguiente consideraci´on [Pe˜ na, 2002]: b se le han restado las medias de cada variable, de manera que ahora cada A la matriz de datos X b tiene media cero. Esta consideraci´on tiene alcance u columna de X ´nicamente en esta secci´on.

Si nos situamos en IR2 , y tenemos una nube de puntos con forma de elipse inclinada, el objetivo es encontrar un subespacio de dimensi´ on uno, una recta, sobre la cual proyectar nuestros datos y considerar que estas proyecciones explican la distribuci´on de los mismos sobre IR2 con poca incertitud. Intuitivamente, cuando observamos una elipse solemos transformar su posici´on gir´andola mentalmente, poniendo sus ejes mayor y menor paralelos a nuestros ejes X e Y de referencia. Adem´as, r´apidamente detectamos la direcci´ on de m´ axima variabilidad de la nube de puntos como la correspondiente al eje mayor, y nos suele llamar la atenci´ on que ´este eje sea mayor que el otro. Entendemos, pues, que el eje mayor da una idea m´ as potente de la estructura de los datos en la nube, y extrapolamos que la nube de datos es ‘‘alargada’’ en la direcci´ on del eje mayor de la elipse. Hemos realizado un an´alisis de componentes principales mentalmente. En la figura 6.12 se muestra un ejemplo de lo que se pretende realizar mediante el A.C.P. para un caso particular en IR3 . Como se ve, la elipsoide tiene un eje dominante en variabilidad, seguido en orden decreciente por otros dos ejes ortonormales entre s´ı y con el primero, correspondientes a las direcciones de m´ axima variabilidad de la nube de puntos. Resulta que el notado por ‘‘eje Z nuevo’’ en la figura ?? tiene un tama˜ no relativo a los otros dos muy peque˜ no, lo que significa que no aporta gran informaci´on sobre la forma de la nube de puntos. Sin embargo, el ‘‘eje X nuevo’’ y el ‘‘eje Y nuevo’’ s´ı tiene tama˜ nos parecidos, pues no solo ha una gran variabilidad en la direcci´ on del eje mayor del elipsoide, sino que hay una dispersi´on tambi´en considerable en el segundo eje mayor. Por ello, se pueden considerar tan solo estos dos ejes de m´axima variabilidad y proyectar los puntos sobre el subespacio que ´estos definen. As´ı se muestra en la figura 6.12b.

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas Cap´ıtulo 6 - An´ alisis de las caracter´ısticas Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

−5 −5

nuevo eje X nuevo eje X nuevo eje Z nuevo eje Z

−10 −10 −5 −5

00

eje ejeXXoriginal original

nuevo eje Y nuevo eje Y −4 −6 −4 −8 −6 −10 −8 −12 −10 −12 eje Y Y original original eje

(a) aalculo ejes de de m´ m´ xima dispersi´ dispersi´ (a)Ejemplo Ejemplo de de c´ c´ lculo de de nuevos nuevos ejes aaxima oonn mediante el an´ a lisis de componentes principales mediante el an´ alisis de componentes principales

nuevo eje Y nuevo eje Y

eje Z original eje Z original

114 114 114

2

0

2

0

−2 −2 −2−2

0 0 2 2 nuevo nuevo ejeeje XX

4 4

(b) Proyecciones Proyeccionesdedeloslosvectores vectores sobre sobre los los (b) nuevos ejes de coordenadas nuevos ejes de coordenadas

Figura la dimensi´ dimensi´ deun unconjunto conjuntodededatos datosmediante mediante A.C.P.en la figura A.C.P.en la figura Figura6.12: 6.12:Ejemplo Ejemplo de de reducci´ reducci´ on de la oonnde 6,12a en 6.12b 6.12b lala selecci´ selecci´ delos losdos dosprimeros primerosejes, ejes,correspondientes correspondientes original, y en a a 6,12asesemuestra muestra el el espacio espacio original, oonnde los aaxima oonn losde dem´ m´ xima dispersi´ dispersi´

6.5.3.

Metodolog´ıa

datossobre sobreesta esta direcci´ direcci´ n. A la proyecci´ proyecci´oonn la zb datos oon. la denominaremos denominaremosb z, ,yyseseobtiene obtienemediante mediante Si denominamos aj a las nuevas direcciones de los ejes de coordenadas, para calcular la direcci´on de m´ axima varianza (la que denominaremos primer componente) tendremos que proyectar la matriz de bX b · ·aa11 b zb (6.3) z11 ==X (6.3) datos sobre esta direcci´ on. A la proyecci´ on la denominaremos b z, y se obtiene mediante bb tienen Comolas lascolumnas columnas de de X X tienen media dedelos esta primera comComo media cero, cero, las lasproyecciones losvectores vectoressobre sobre esta primera combproyecciones b z1 = X · an1a, 2002], la varianza de esta nueva componente (6.3) ponente tendran tambi´ e n media cero. Por definici´ o n [Pe˜ ponente tendran tambi´en media cero. Por definici´on [Pe˜ na, 2002], la varianza de esta nueva componente b tienen media cero, las proyecciones de los vectores sobre esta primera comser´ ser´ aaComo las columnas de X ponente tendran tambi´en media cero. Por definici´on [Pe˜ na, 2002], la varianza de esta nueva componente 11b 0 b 11 0 ser´ a 0b b zz10b zz1 == XX (6.4) V zz1 )) = 0 b 1 = a1 Sa b Xa b1 1 Xa1 = a01 Sa (6.4) V ar(b ar(b 1 1 =n b n 1b n n 1 0 1 b0 b 0b V ar(b z1 ) = b (6.4) z b z1 = X Xa1 = 1 Sa1 y es precisamente lo que queremos maximizar. unamultiplicador de Lagrange, y operando n 1 Introduciendo n y es precisamente lo que queremos maximizar. Introduciendo un multiplicador de Lagrange, y operando comoes esprecisamente habitual, se obtiene la soluci´omaximizar. n para la direcci´ on a1 , dada por lo que queremos Introduciendo un multiplicador de Lagrange, y operando comoy es habitual, se obtiene la soluci´ on para la direcci´ on a1 , dada por como es habitual, se obtiene la soluci´ on para la direcci´on a1 , dada por b 1 = λa1 Sa (6.5) b 1 = λa1 (6.5) bSa Sa (6.5) 1 = λa1 b Lo cual implica que es un de S, λ el propio asociado aa ´´eel. l. Expresando Expresando esta esta bb y Locual cualimplica implica que que aa a111 es es un un vector vector propio propio de S, elelvalor valor propio asociado Lo vector propio de S, yyλλ valor propio asociado a ´el. Expresando esta ecuaci´ o n de esta otra manera, y empleando la restricci´ o n de que el m´ o dulo del vector director de la ecuaci´ onn de de esta esta otra otra manera, manera, y y empleando la restricci´ oonnde que elelm´ odulo del vector director de de la ecuaci´ o empleando la restricci´ de que m´ o dulo del vector director direcci´ oon tenga valor uno (restricci´ oon con la que se ha encontrado la soluci´ soluci´ n con con el el multiplicador multiplicador de de la direcci´ ntenga tenga valor valor uno uno (restricci´ (restricci´ n con la que se ha encontrado la oon direcci´ o n o n con la que se ha encontrado la soluci´ o n con el multiplicador Lagrange), se obtiene que la el autovalor aa la oon de m´ xima variaci´ variaci´ n se se corresponde corresponde de Lagrange),se seobtiene obtiene que que la la el el autovalor autovalor λ λλ asociado asociado laladirecci´ direcci´ n dedem´ aaxima oon Lagrange), asociado a direcci´ o n m´ a xima variaci´ o n se corresponde con oon oon: con la la varianza varianza de de la la proyecci´ proyecci´ n de de los los vectores vectores sobre sobre esta esta direcci´ direcci´ n: con la varianza de la proyecci´ on de los vectores sobre esta direcci´on: b 1 = λa0 a1 = λ (6.6) a1 Sa 1 b 1 = λa0 a1 = λ a1 Sa (6.6) 1 b Este hecho puede generalizarse, y los autovalores asociados a la matriz S ordenados por orden decreb Este hecho puede generalizarse, y los autovalores asociados a la matriz S ordenados por orden decreciente dan lugar a las direcciones de m´ axima varianza de los datos, correspondi´ endo ´estas a los autovecb ordenados Estedan hecho puede los autovalores a lacorrespondi´ matriz S decreciente lugar a lasgeneralizarse, direcciones deym´ axima varianzaasociados de los datos, endo ´estaspor a losorden autovectores asociados a los λj . tores dan asociados ciente lugar aa los lasλdirecciones de m´ axima varianza de los datos, correspondi´endo ´estas a los autovecj. b Si denominamos por Z a la matriz de datos cuyas columnas son loslos componentes principales y b a la matriz de datos cuyas columnas son loslos componentes principales y toresSiasociados a los λpor j. Z denominamos las filas son las proyecciones de los vectores originales en este nuevo espacio, resulta que encontrar las b las filas son las proyecciones los vectores originales encolumnas este nuevo que encontrar las y Si denominamos por Z lam´ matriz de datos sonespacio, loslos resulta componentes principales componentes principales no aesde as que aplicar unacuyas transformaci´ on ortogonal componentes principales no es m´ a s que aplicar una transformaci´ o n ortogonal las filas son las proyecciones de los vectores originales en este nuevo espacio, resulta que encontrar las b = XA b componentes principales no es m´ as que aplicar Z una transformaci´ on ortogonal (6.7) b = XA b Z (6.7) sobre las variables originales para obtener las nuevas variables completamente incorreladas, coincib= blugar de con el punto de vista del observador. (6.7) Z diendo esta vez los datos con sus ejes ‘‘naturales’’, enXA sobre las variables originales para obtener las nuevas variables completamente incorreladas, coincidiendo los datos con sus para ejes ‘‘naturales’’, lugar variables de con el completamente punto de vista del observador. coincisobreesta las vez variables originales obtener las en nuevas incorreladas,

diendo esta vez los datos con sus ejes ‘‘naturales’’, en lugar de con el punto de vista del observador.

6.5 - An´ alisis de componentes principales

6.5.4.

115

Criterios de selecci´ on del n´ umero de componentes

Mucha es la bibliograf´ıa que trata sobre este tipo de an´alisis, pero de manera general se han sugerido las siguientes reglas para determinar el n´ umero de componentes que deben mantenerse: La realizaci´ on de un gr´ afico delos valores de los λj frente a los componentes j permite obtener una idea de la magnitud relativa entre la variaci´on a lo largo de cada una de las nuevas direcciones. El criterio de selecci´ on empleado bajo esta representaci´on consiste en seleccionar las componentes hasta un valor de codo, a partir del cual los λj se mantienen pr´acticamente constantes. Representar el porcentaje de varianza acumulada mediante un gr´afico de Pareto, y elegir un n´ umero de componentes tal que se explique al menos el 80 o 90 % de la varianza total. Sin embargo, hay que tener precauci´ on en la aplicaci´on del Pareto, pues puede que una sola componente explique por s´ı misma el 90 % de la varianza y que las dos siguientes sean importantes para tener una idea de la forma de la nube7 . b Finalmente, se puede considerar un valor umbral para los autovalores de S,que normalmente est´ a relacionado con la varianza media. Obviamente este criterio puede ajustarse de acuerdo a lo otros dos.

6.5.5.

Resultados y conclusiones

Dividiremos el an´ alisis de los resultados obtenidos por el A.C.P. en dos: por un lado estudiaremos los datos fijando las enfermedades y variando los tipos de patr´on, y por el otro fijaremos el tipo de patr´ on y variaremos las enfermedades. Estudio fijando las enfermedades Empezaremos por el caso de temblor esencial. En la figura 6.13 se muestran los resultados del an´ alisis de las componentes principales. La primera de las subfiguras (6.13a) se refiere a las componentes principales del conjunto de vectores de tipo est´atico. Como se puede ver, la direcci´on de m´axima dispersi´ on est´ a muy bien diferenciada de la segunda (es pr´acticamente el doble), y solo con la primera y la segunda componente se explica el 75 % de la varianza de la nube. De hecho, de las treinta y nueve caracter´ısticas de partida, solo nos hacen falta seis para obtener m´as del 90 % de la informaci´on del conjunto (gr´afico de Pareto de la figura 6.13a). Resultados m´ as pronunciados si cabe se producen en el caso de los patrones cin´eticos (figura 6.13b). El primer componente resulta tener una varianza tres veces superior al segundo. Sin embargo, en este caso se necesitan m´ as componentes para explicar la misma proporci´on que en el caso anterior: diez son las distintas combinaciones lineales de entre las treinta y nueve caracter´ısticas con las que podemos explicar m´ as del 90 % de la estructura de los datos. Finalmente, una explicaci´ on similar se merece el caso de los patrones din´amicos: son necesarios ocho componentes para identificar al conjunto de una manera muy fiable. De este peque˜ no an´ alisis se puede sacar en conclusi´on que hay una componente, en los tres casos, que domina claramente sobre las dem´ as. Se trata de un factor de tama˜ no, como se explic´o m´as arriba, que puede deberse a las siguientes razones: Realmente una de las combinaciones lineales entre las caracter´ısticas toma valores muy dispersos, lo que explicar´ıa la dominancia del primer componente. Existe un n´ umero considerable de vectores que toman valores at´ıpicos justo en las caracter´ısticas de las que depende la combinaci´ on lineal de la primera componente, por lo que aumentar´ıa la dispersi´ on de la nube en esta direcci´ on. El hecho de que existan, forma general, unos componentes de forma cuyos autovalores asociados tienen magnitudes similares puede significar que la nube de datos tiene forma de hipercilindro: un eje longitudinal largo (factor de tama˜ no) y otros ejes de tama˜ no similar (factores de forma). En el caso de los pacientes de Parkinson los resultados son algo distintos: en general se necesitan m´ as componentes para explicar la mayor´ıa de la dispersi´on de la nube. 7 Se

habla de componentes relacionados con el tama˜ no y con la forma de la nube al referirse a aquellos que dan una idea de lo grande que es un conjunto de datos y c´ omo est´ an repartidos entre s´ı, respectivamente [Pe˜ na, 2002].

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

15 10 5 0

0

5

10 15 20 25 Componentes principales

30

Varianza explicada ( %)

Varianza asociada

116 100

comp. 6

80 60 40 20 0

0

5 10 15 Componentes principales

20

10 5 0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

Varianza asociada

(a) Estudio del A.C.P. de los patrones est´ aticos de temblor esencial 100 90 80 70 60 50 40 30 20 10 0

comp. 10

0

10 20 30 Componentes principales

15 10 5 0

0

5

10 15 20 25 Componentes principales

30

Varianza explicada ( %)

Varianza asociada

(b) Estudio del A.C.P. de los patrones cin´eticos de temblor esencial 100 90 80 70 60 50 40 30 20 10 0

comp. 8

0

5

10 15 20 Componentes principales

25

(c) Estudio del A.C.P. de los patrones din´ amicos de temblor esencial

Figura 6.13: Estudio de los componentes principales de los pacientes de temblor esencial. En 6.13a se presentan los resultados del an´ alisis para los patrones est´ aticos, en 6.13b para los patrones cin´eticos y en 6.13c para los din´ amicos. A la izquierda la varianza de cada una de las componentes (los autovalores asociados a las direcciones de m´ axima dispersi´ on). A la derecha gr´ afico de Pareto de la varianza

En la figura 6.14 se puede ver que como m´ınimo se necesitan nueve componentes para exlicar m´as del 90 % de las caracter´ısticas, no superando los once componentes. En este caso se repite la experiencia del anterior. En los patrones est´ aticos la varianza del primer componente es casi tres veces superior a la del segundo, y solo entre estos dos se explica casi el 70 % de la informaci´on. Tanto en el caso de los patrones est´ aticos como en el de los cin´eticos se comprueba que los dos primeros componentes est´ an mucho m´ as dispersos que el resto (en proporci´on). El punto de codo parece estar m´as cerca del origen, pero tenemos que apoyarnos en el an´alisis de Pareto para no caer en la tentaci´on de tomar tan solo tres o cuatro autovalores. El caso de los patrones din´ amicos es algo distinto. La disminuci´on de la dispersi´on en los nuevos ejes incorrelados es paulatina, y no se comprueba que haya una o dos direcciones extremadamente dominantes. Esto puede significar que en el caso de los patrones din´amicos, los pacientes de Parkinson han generado puntos que tienden a agruparse en forma de hiperesfera en IRp , por lo que la correlaci´on entre sus caracter´ısticas no es demasiado grande. Respecto del caso de los pacientes sanos, no se presenta ninguna figura por su gran parecido con las componentes principales de los pacientes de Parkinson. S´ı que hay que remarcar, sin embargo, que el n´ umero de componentes necesario para sobrepasar el 90 % de la informaci´on se sit´ ua en trece para los patrones est´ aticos y cin´eticos, y en once para los patrones din´amicos.

117

15 10 5 0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

Varianza asociada

6.5 - An´ alisis de componentes principales

100 90 80 70 60 50 40 30 20 10 0

comp. 9

0

10 20 30 Componentes principales

10 5 0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

Varianza asociada

(a) Estudio del A.C.P. de los patrones est´ aticos de Parkinson 100 90 80 70 60 50 40 30 20 10 0

comp. 11

0

10 20 30 Componentes principales

10

5

0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

Varianza asociada

(b) Estudio del A.C.P. de los patrones cin´eticos de Parkinson 100 90 80 70 60 50 40 30 20 10 0

comp. 11

0

10 20 30 Componentes principales

(c) Estudio del A.C.P. de los patrones din´ amicos de Parkinson

Figura 6.14: Estudio de los componentes principales de los pacientes de Parkinson. En 6.14a se presentan los resultados del an´ alisis para los patrones est´ aticos, en 6.14b para los patrones cin´eticos y en 6.14c para los din´ amicos. A la izquierda la varianza de cada una de las componentes (los autovalores asociados a las direcciones de m´ axima dispersi´ on). A la derecha gr´ afico de Pareto de la varianza Tambi´en resulta que en el caso de los patrones din´amicos s´ı que hay dos autovalores claramente diferenciados del resto, mientras que en los otros dos tipos de patrones los valores decrecen suavemente. Estudio fijando los tipos de patr´ on Cuando estudiamos en la secci´ on anterior los diagramas de dispersi´on bivariante fijando el tipo de patr´ on, nos encarg´ abamos de superponer las nubes de datos para intentar vislumbrar algo. En el caso del an´ alisis de componentes principales no es necesario superponer los datos, pues se pueden estudiar tambi´en por separado de manera c´ omoda, tal y como se ha realizado al estudiar el A.C.P. fijando la enfermedad. En este estudio volveremos a considerar u ´nicamente la clasificaci´on de los vectores por tipo de patr´ on, dejando el estudio por patrones separados para m´etodos posteriores. Si deseamos comparar los conjuntos de los vectores est´aticos de cada una de las enfermedades y visualizar los autovalores asociados a sus matrices de covarianza, nos encontraremos en el primer caso de estudio de esta parte. En la figura 6.16 se muestran los tres conjuntos de vectores estaticos para los pacientes de temblor esencial, Parkinson y sanos. Como se puede ver, el caso de los pacientes de Parkinson y de temblor esencial permiten reducir el espacio de caracter´ısticas a un subespacio transformado de nueve y seis componentes respectivamente.

118

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

15 10 5 0

0

5

10 15 20 25 Componentes principales

30

Varianza explicada ( %)

Varianza asociada

En estos subespacios se trabajar´ıa con m´ as del 90 % de la informaci´on original, por lo que las p´erdidas no suponen demasiado sacrificio. Sin embargo, los pacientes sanos se mantienen en los trece componentes. Adem´as, hay que remarcar que en los pacientes enfermos las dos componentes principales son notoriamente m´as dispersas que el resto, mientras que en el caso de los pacientes sanos la dispersi´on en cada una de las direcciones naturales de los datos disminuye poco a poco. 100 comp. 6

80 60 40 20 0

0

5 10 15 Componentes principales

20

15 10 5 0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

Varianza asociada

(a) Estudio del A.C.P. de los patrones est´ aticos de los pacientes de temblor esencial 100 90 80 70 60 50 40 30 20 10 0

comp. 9

0

10 20 30 Componentes principales

8 6 4 2 0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

Varianza asociada

(b) Estudio del A.C.P. de los patrones est´ aticos de los pacientes de Parkinson 100 comp. 13

80 60 40 20 0

0

10 20 30 Componentes principales

(c) Estudio del A.C.P. de los patrones est´ aticos de los pacientes sanos

Figura 6.15: Estudio de los componentes principales de los patrones est´ aticos. En 6.16a se presentan los resultados del an´ alisis para los vectores de temblor esencial, en 6.16b para los de Parkinson y en 6.16c para los de pacientes sanos. A la izquierda la varianza de cada una de las componentes (los autovalores asociados a las direcciones de m´ axima dispersi´ on). A la derecha gr´ afico de Pareto de la varianza Si pasamos al estudio de los patrones cin´eticos, la cosa cambia ligeramente en los pacientes enfermos. En este caso se necesitan m´ as componentes para obtener aproximadamente la misma informaci´on de partida, y la dominaci´ on del componente de m´axima varianza aumenta en el caso de los pacientes de temblor esencial, mientras que en el caso de los pacientes de Parkinson disminuye el ratio entre el primer y el segundo componente. Esto puede deberse a la disminuci´ on de la influencia del temblor en el caso de los pacientes de Parkinson y al incremento de la potencia de la frecuencia temblorosa para los de temblor esencial al realizar movimientos voluntarios. Esto permitir´ıa que las frecuencias del m´aximo, y todas las caracter´ısticas relacionadas con ella, se concentraran alrededor de la frecuencia de corte del filtro en el caso de los pacientes de Parkinson y se distribuyeran en los rangos t´ıpicos del temblor esencial para este tipo de pacientes. Al aumentar la dispersi´ on en las frecuencias de temblor esencial implicar´ıa que hay una direcci´on

6.5 - An´ alisis de componentes principales

119

10 5 0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

Varianza asociada

dominante, mientras que la concentraci´on de los puntos en el caso del Parkinson provocar´ıa que la dispersi´ on entre las distintas direcciones naturales de la nube se igualaran. Esta hip´otesis explicar´ıa los resultados obtenidos por el A.C.P. en el caso de los patrones est´aticos y cin´eticos. 100 90 80 70 60 50 40 30 20 10 0

comp. 10

0

10 20 30 Componentes principales

10 5 0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

Varianza asociada

(a) Estudio del A.C.P. de los patrones cin´eticos de los pacientes de temblor esencial 100 90 80 70 60 50 40 30 20 10 0

comp. 11

0

10 20 30 Componentes principales

10 5 0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

Varianza asociada

(b) Estudio del A.C.P. de los patrones cin´eticos de los pacientes de Parkinson 100 comp. 13

80 60 40 20 0

0

10 20 30 Componentes principales

(c) Estudio del A.C.P. de los patrones cin´eticos de los pacientes sanos

Figura 6.16: Estudio de los componentes principales de los patrones cin´eticos. En 6.16a se presentan los resultados del an´ alisis para los vectores de temblor esencial, en 6.16b para los de Parkinson y en 6.16c para los de pacientes sanos. A la izquierda la varianza de cada una de las componentes (los autovalores asociados a las direcciones de m´ axima dispersi´ on). A la derecha gr´ afico de Pareto de la varianza Siguiendo con esta explicaci´ on, si nos fijamos en la figura 6.17 para los patrones din´amicos, podemos ver que la tendencia contin´ ua: Los pacientes de Parkinson tienden a homogeneizar la dispersi´on en todas las direcciones, pues la disminuci´ on del temblor provoca la concentraci´on de los valores alrededor de uno central, mientras que en el caso del tembor esencial se mantiene la tendencia a la dispersi´on en una direcci´ on, debido posiblemente a que cada paciente manifiesta su temblor alrededor de la frecuencia t´ıpica del temblor esencial, alej´ andose de la concentraci´on alrededor de la frecuencia de corte del filtro. El caso de los pacienes sanos requiere de una interpretaci´on distinta. La hip´otesis planteada aqu´ı es que, puesto que te´ oricamente el temblor de los pacientes sanos, como se ha justificado anteriormente, deber´ıa aumentar muy ligeramente con el movimiento (debido a la contracci´on muscular y a la correcci´ on intencionada de la trayectoria por un camino muy estrecho), la frecuencia de corte del filtro jugar´ a un papel m´ as importante en los patrones est´aticos, generando direcciones naturales m´as homog´eneas en t´erminos de dispersi´ on. Sin embargo, a medida que se aumenta en la intencionalidad, la frecuencia del temblor de los sanos puede manifestarse en un rango m´as amplio de frecuencia, provocando que la nube de datos se alargue en una direcci´ on m´as que en otras, lo que explicar´ıa que en el A.C.P. por fijaci´ on

120

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

15 10 5 0

0

5

10 15 20 25 Componentes principales

30

Varianza explicada ( %)

Varianza asociada

del patr´ on los pacientes sanos suavicen la disminuci´on de los autovalores de su matriz de covarianzas en el caso de los patrones est´ aticos, y aumenten las diferencias entre las mayores varianzas y las menores en los patrones cin´eticos y est´ aticos. 100 90 80 70 60 50 40 30 20 10 0

comp. 8

0

5

10 15 20 Componentes principales

25

10

5

0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

Varianza asociada

(a) Estudio del A.C.P. de los patrones din´ amicos de los pacientes de temblor esencial 100 90 80 70 60 50 40 30 20 10 0

comp. 11

0

10 20 30 Componentes principales

Varianza asociada

15 10 5 0

0

10 20 30 Componentes principales

40

Varianza explicada ( %)

(b) Estudio del A.C.P. de los patrones din´ amicos de los pacientes de Parkinson 100 comp. 11

80 60 40 20 0

0

10 20 30 Componentes principales

(c) Estudio del A.C.P. de los patrones din´ amicos de los pacientes sanos

Figura 6.17: Estudio de los componentes principales de los patrones cin´eticos. En 6.17a se presentan los resultados del an´ alisis para los vectores de temblor esencial, en 6.17b para los de Parkinson y en 6.17c para los de pacientes sanos. A la izquierda la varianza de cada una de las componentes (los autovalores asociados a las direcciones de m´ axima dispersi´ on). A la derecha gr´ afico de Pareto de la varianza

Conclusiones sobre el A.C.P. Hemos podido comprobar la influencia de la estructura de la nube de puntos generada en la determinaci´ on de las direcciones naturales de la misma (componentes principales). El hecho de que con pocas direcciones naturales se consigan explicar la mayor parte de la informaci´on del conjunto nos lleva a pensar que tal vez no est´ abamos observando a nuestras caracter´ısticas desde la buena perspectiva. Seguramente tantas caracter´ısticas impiden ver la esencia de lo que hay en los datos, pero gracias al an´ alisis de componentes principales hemos visto que hay algo de l´ogico en su estructura, de acuerdo con las herramientas empleadas hasta llegar a este punto a lo largo de los trabajos de todos los implicados en esta investigaci´ on. No se considerar´ an, sin embargo, las componentes principales para la clasificaci´on automatizada de los vectores. Este estudio ten´ıa como objetivo el intentar comprender la estructura interna de los conjuntos, para poder dar un toque de luz a las siguientes etapas.

6.6 - An´ alisis de las distribuciones de cada componente

121

El an´ alisis multivariante (diagramas de dispersi´on bivariante) y el an´alisis de componentes principales nos han permitido hacernos una idea de los conjuntos con los que trabajamos, y en las siguientes secciones se estudiar´ an las caracter´ısticas por separado, comparando los valores que estas tienden a tomar seg´ un tengamos pacientes de temblor esencial, Parkinson o sanos, o si por el contrario consideramos los tres tipos de patr´ on o los dieciocho patrones distintos que hay.

6.6.

An´ alisis de las distribuciones de cada componente

Cada caracter´ıstica del temblor ha sido calculada sobre varias trayectorias filtradas. Hemos visto que es posible considerar a cada una de las caracter´ısticas como una variable aleatoria, y se precis´o m´as arriba que las variables aleatorias discretas se considerar´ıan continuas. De esta manera se tiene un conjunto de treinta y nueve variables aleatorias continuas que pueden estudiarse por separado, aunque existan dependencias entre ellas. El inter´es de estudiarlas individualmente es el poder obtener una visi´on m´as detallada de los datos, y poder as´ı realizar una comparaci´ on entre los distintos conjuntos m´as concreta.

6.6.1.

Motivaci´ on y objetivos de este estudio

Lo que se pretende conseguir es la caracterizaci´on de cada enfermedad, no ya solo de sus temblores. El t´ermino caracterizaci´ on no se emplea en el mismo sentido que hasta ahora, sino que se refiere a poder determinar los valores m´ as significativos que toman las caracter´ısticas extra´ıdas de los temblores de los pacientes de las distintas enfermedades. Para poder referirnos a unos valores ‘‘tipo’’ de una enfermedad, hay que concretar tambi´en cu´ ales son las desviaciones que pueden sufrir los mismos. Esto implica calcular una media y una varianza, por ejemplo, de una funci´ on de probabilidad sobre las distintas caracter´ısticas de la enfermedad. De esta manera, se podr´ a construir una tabla patr´ on con la que poder comparar a los siguientes individuos no diagnosticados que se sometan a las pruebas. El mecanismo de comparaci´on ser´a la l´ogica borrosa, como se ver´ a en el siguiente cap´ıtulo, mediante la cual los pacientes que se quiere diagnosticar adquieren una probabilidad de pertenencia a un conjunto de acuerdo a los valores de la tabla patr´on predefinida. Estos objetivos, junto con el hecho de que a´ un no hay ning´ un documento en el que se expliquen los valores usuales que toman las caracter´ısticas definidas a lo largo de esta l´ınea de investigaci´on para cada una de las enfermedades, componen los motivos de la realizaci´on de este an´alisis univariante de todas las caracter´ısticas

6.6.2.

Metodolog´ıa

Consideremos la variable aleatoria cj , tomada de un conjunto de variables aleatorias Cb, con |Cb| = p.

Definici´ on 17. Funci´ on de distribuci´ on y funci´ on de densidad de una variable aleatoria continua Sea X una variable aleatoria definida sobre un conjunto Ω. Se llama funci´ on de distribuci´ on de X, y se nota por F , a la funci´ on F : Ω −→ [0, 1]

x −→ F (x)

Si X es una variable aleatoria continua, entonces +

∃f : IR −→ IR ∪0 | F (x) =

Zx

f (x) dx

(6.8)

−∞

Y a esta f se la denomina funci´ on de densidad de probabilidad. Geom´etricamente F (x) es el ´ area por la izquierda de f (x) hasta X = x. Adem´as, se cumplen las siguientes proposiciones: f (x) ≥ 0∀x ∈ IR Z∞

−∞

f (x) dx = 1

122

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

Frecuencia

Realizado este peque˜ no recordatorio matem´atico, pasamos a describir la metodolog´ıa empleada para el an´ alisis de las distribuciones. Existen varios tipos de funciones de densidad de probabilidad. El fin es conseguir describir lo mejor posible las distintas caracter´ısticas, y ´estas pueden adoptar distintos tipos de distribuci´on. Suele tomarse como primera aproximaci´ on la distribuci´ on normal para ajustar una variable aleatoria, pero no en todos los casos los datos se distribuyen de esta manera. Por ejemplo, hay algunas caracter´ısticass, relacionadas directamente con la frecuencia a la que se produce el temblor, que est´an capadas por la izquierda debido a la frecuencia de corte del filtro, y se encuentran muy concentras alrededor de la baja frecuencia, con algunos valores at´ıpicos a frecuencias m´ as altas. Esto genera una distribuci´on asim´etrica con una cola hacia la derecha, lo cual se aleja mucho de una distribuci´on normal. Afortunadamente existen otros tipos de funciones de densidad que se ajustan a distribuciones de otras formas, y nos serviremos de ´estas para describir a nuestras caracter´ısticas. La idea ajustar una caracter´ıstica por cada una de las distribuciones, para posteriormente determinar de acuerdo con un criterio determinado cu´ al de ellas es la que mejor se ajusta a nuestra variable aleatoria. Dada la cantidad de funciones de densidad que hay, se ha tenido que hacer una selecci´on de las mismas, seg´ un se adec´ uen de manera general a nuestros datos. As´ı, se ha elegido la t´ıpica funci´on normal o la funci´ on exponencial, para los casos en los que los datos se distribuyan alrededor de un valor o a partir de ´este, respectivamente. Sin embargo, existen otras funciones m´as ver´atiles en las que, al variar sus par´ ametros, se puede variar su forma y su escala para ajustarlas a nuestra variable aleatoria. Tres de estas funciones son las empleadas en este trabajo, a saber, la funci´on normal logar´ıtmica, la funci´on gamma y la funci´ on Weibull. La funci´ on de densidad normal es una de Muestras reales las m´ as empleadas para describir variables 6 Distribuci´on Normal ´ aleatorias. Esta depende directamente de los valores de la media y la desviaci´ on t´ıpica de 4 la distribuci´ on, y se define como y = f (x|µ, σ)

2

2

1 = √ e σ 2π

− (x − µ) 2σ 2

0

(6.9)

−1

0 1 Valores de la variable

2

Frecuencia

con µ la media y σ la desviaci´ on t´ıpica de Figura 6.18: Ajuste por una distribuci´ on normal la distribuci´ on Como se puede ver en la figura 6.18, se trata de una funci´ on de densidad sim´etrica (independientemente de la distribuci´on) que se centra en la media y su anchura depende de la desviaci´ on t´ıpica de los datos. En relaci´ on con ´esta, la funci´ on de densi8 dad normal-logar´ıtmica permite ajustar disMuestras reales tribuciones asim´etricas con colas, como la Distribuci´on Log-Normal 6 de la caracter´ıstica c2 (fm´ax (P SD) ). Es u ´til cuando los datos se concentran alrededor de 4 un valor y tienen tendencia a la dispersi´ on hacia uno de los lados. La definici´ on de esta 2 funci´ on de densidad es 0

y = f (x|µ, σ) 2

0

2

4 6 Valores de la variable

8

10

− (ln(x) − µ) on normal lo2σ 2 = e , x > 0 (6.10) Figura 6.19: Ajuste por una distribuci´ xσ 2π gar´ıtmica (log-normal) 1 √

con µ la media logar´ıtmica y σ la desviaci´ on t´ıpica logar´ıtmica de la distribuci´ on. La media y la desviaci´on t´ıpica de la distribuci´on se calculan σ2   2 µ+ 2 2 y σreal = eσ − 1 e2µ + σ , respectivamente. Hay que remarcar que el dominio como µreal = e de definci´ on de esta funci´ on de densidad son los valores positivos, debido a la naturaleza del logaritmo.

6.6 - An´ alisis de las distribuciones de cada componente

123

Frecuencia

Para ajustar las distribuciones que tomen valores negativos mediante esta funci´on se alicar´a un deplazamiento en x para hacer positivos los datos y as´ı poder aplicar la funci´on. En definitiva, lo que nos interesar´ a para el diagn´ ostico es la superposici´on entre las funciones de densidad, por lo que el que los valores sean positivos o negativos no hace perder funcionalidad al m´etodo. Por otra parte, la funci´ on exponencial Muestras reales permite ajustar distribuciones estrictamente Distribuci´on Exponencial decrecientes. Es una funci´ on de densidad que 10 solo depende de un par´ ametro, que coincide tanto con la media (µreal = µ) como con la desviaci´ on t´ıpica σreal = µ, y que ser´ a u ´til 5 en aquellos casos en los que las realizaciones de una caracter´ıstica tengan m´ axima frecuencia en un valor y m´ınima en otro valor supe0 rior, pasando por valores intermedios de fre0 1 2 3 0,5 1,5 2,5 3,5 cuencia decreciente. Su funci´ on de densidad Valores de la variable se define como en 6.11. En este caso no hay restricciones acerca del dominio de la variaFigura 6.20: Ajuste por una distribuci´ on exponencial ble aleatoria, pudiendo tomar valores en todo IR. x 1 µ y = f (x|µ) = e µ

(6.11)

Frecuencia

Las u ´ltimas dos funciones de densidad son m´as vers´atiles, pues variando sus par´ametros se puede conseguir variar su forma, permitiendo ajustar mejor los datos. Como veremos, su elecci´on como funciones de ajuste de las distribuciones ser´ a bastante frecuente. En primer lugar la distribuci´ on Gamma. Muestras reales ´ 8 Esta depende de dos par´ ametros, k y theta, Distribuci´on Gamma seg´ un los cuales se pueden ajustar los datos 6 con mayor o menor acierto. k es un factor de forma que permite variar y → ∞ cuando 4 x → 0 si 0 < k < 1, generando una y decreciente ∀x. Si k > 1 entonces y crece en 2 (0, k − 1) y decrece en (k − 1, +∞), tomando una forma parecida a la de la funci´ on normal 0 logar´ıtmica. Si k = 1 y decrece continuamen0 0,2 0,4 0,6 0,8 te desde y(0) = 1. Por otro lado, θ es un Valores de la variable factor de escala en ambos ejes, y no cambia, por tanto, la forma de la distribuci´ on. Figura 6.21: Ajuste por una distribuci´ on gamma Su definici´ on est´ a asociada a la funci´on Gamma Γ(x), definida por Γ(x) =

Z∞

e−t tx−1 dt

(6.12)

0

calculada sobre el par´ ametro k: x − 1 k−1 y = f (x|k, θ) = k x e θ θ Γ(k)

(6.13)

√ Respecto de los valores m´ as significativos, µreal = kθ y la desviaci´on t´ıpica vale σreal = kθ. De igual forma, la distribuci´ on Weibull depende de dos par´ametros, uno de forma k > 0 y otro de escala λ > 0. Cuando k < 1 nos encontramos con una funci´on de densidad estrictamente decreciente desde y → +∞ cuando x → 0, del estilo de la funci´on exponencial.

124

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

Muestras reales Distribuci´on Weibull

6 Frecuencia

Al igual que la funci´ on Gamma, cuando k = 1 entonces sigue siendo decreciente, pero esta vez y = 1 cuando x = 0. Finalmente, si k > 1 la forma que toma esta funci´ on es la de la figura 6.22. La definici´ on de esta funci´ on de densidad es

4 2

y = f (x|k, λ)  x k k  x k−1 e λ ,x ≥ 0 (6.14) = λ λ   1 con µreal = λΓ 1 + la media de la k distribuci´ on.

0 2,2

2,4

2,6

2,8

3

3,2

3,4

3,6

Valores de la variable

Figura 6.22: Ajuste por una distribuci´ on Weibull

Por su parte, la desviaci´ on t´ıpica vale σreal =

s

     2 1 λ2 Γ 1 + − Γ2 1 + k k

Desplazar distribuciones Nuestras caracter´ısticas, en general, no est´an definidas en IR+ . Sin embargo, algunas funciones de densidad requieren de esta condici´ on para poder realizarse computacionalmente, lo que nos lleva a la necesidad de adaptar nuestros datos a un nuevo dominio sobre el cual poder trabajar. Definici´ on 18. Cambio del dominio de una caracter´ıstica Sea cj una caracter´ıstica definida sobre IR. Sea cj el conjunto de valores que toma cj sobre los r b de datos sin vectores del conjunto. De otra manera, cj se corresponde con la columna j de la matriz X haber realizado la limpieza de at´ıpicos ni seleccionado las caracter´ısticas m´ as interesantes. Para cambiar el dominio y poder ajustar as´ı los valores del vector cj por cualquiera de las funciones de densidad descritas m´ as arriba, se realizar´ a una transformaci´ on tal que



e cj = cj + δ j + ε

T

(6.15)

y ε un vector de valores εj arbitrariamente peque˜ nos para garantizar b e cj > 0. A la matriz ∆ cuyas columnas son los δj se la denominar´ a matriz de desplazamiento de X. con δj = m´ın cj

···

m´ın cj

Una vez se haya desplazado la matriz de datos, se proceder´a a calcular las cinco distribuciones para cada una de las columnas de la misma. Los par´ametros obtenidos en el ajuste no tendr´an en cuenta el desplazamiento, por lo que si se desea calcular la media real o la desviaci´on t´ıpica real de acuerdo con las definiciones de estos valores de las diferentes funciones de densidad, habr´a que restarle el valor correspondiente a un elemento de δj .

C´ alculo de los ajustes por P.D.F. (funci´ on de densidad de probabilidad ) b a El ajuste de las distribuciones se realizar´ a conjunto por conjunto, matriz por matriz. Se pasar´a X la funci´ on ajustaMejor(), y ´esta se encargar´a de calcular el ajuste ´optimo de cada una de las columnas por cada una de las distintas funciones de densidad, gracias a la funci´on fitdist de Matlab® . Adem´ as, se calcular´ a un indicador de la bondad del ajuste por cada tipo de distribuci´on, con el que posteriormente se seleccionar´ a cu´ al de las cinco funciones de densidad describe mejor el conjunto de datos. Test χ2 de Pearson La prueba χ2 de Pearson mide la discrepancia entre una distribuci´on real y una funci´ on de probabilidad te´ orica calculada para ajustar la real. Mide por tanto la bondad del ajuste de la distribuci´ on por la P.D.F. f . Este test se define como la suma de las relaciones entre el cuadrado del error para cada muestra y el valor te´ orico de la muestra: 2

χ (X) =

r 2 X (xi − f (xi )) i=1

f (xi )

(6.16)

6.6 - An´ alisis de las distribuciones de cada componente

125

r 2 X (cij − f (cij )) . Como se puede deducir, cuanto f (ci j) i=1 mayor sea el valor de χ, peor ser´ a el ajuste, debido a un aumento del error en cada muestra. Sin embargo, cuanto m´ as cercano est´e de cero, mejor ser´a el ajuste y, por tanto, m´as probabilidades tiene la funci´ on de densidad f de ser elegida como ajuste ´optimo. En la figura 6.23 se puede ver el ajuste de una poblaci´on generada mediante n´ umero pseudoaleatorios de acuerdo a una ley normal logar´ıtmica mediante distintas funciones de densidad. En efecto, la P.D.F. que m´ as se ajusta es la normal logar´ıtmica, entregando un valor en el test χ2 de 0.7584, el menor de todos. Como se puede comprobar, los valores m´as grandes del test se corresponden con las P.D.F. menos parecidas al histograma.

Y se concreta para nuestro caso por χ2 (cj ) =

Ajuste de una poblaci´ on por distintas distribuciones Histograma de la poblaci´ on real P.D.F.Normal χ2 = 13.4668 P.D.F.Log-Normal χ2 = 0.7584 P.D.F.Exponencial χ2 = 29.3046 P.D.F.Gamma χ2 = 2.1253 P.D.F.Weibull χ2 = 6.0392

8

Frecuencia

6

4

2

0 −4

−2

0

2

4 6 8 Valores de la variable

10

12

14

Figura 6.23: Ajuste de una poblaci´ on por distintas funciones de densidad y correspondiente valor del test χ2

Hay que decir que el valor del test no depende del tama˜ no de los intervalos del histograma, en cuyo caso habr´ıa que tomar un criterio com´ un, sino que depende directamente de los individuos de la poblaci´ on que se desea ajustar. Selecci´ on del ajuste ´ optimo global El an´ alisis por distribuciones lo podemos hacer de dos maneras, como hasta ahora: fijando patrones y variando enfermedades o viceversa. Sin embargo, dado el estudio ya realizado mediante los otros tipos de herramientas al fijar la enfermedad y estudiar los distintos conjuntos de acuerdo al tipo de patr´on o patr´on, y puesto que el inter´es de estudiar las diferencias entre enfermedades a igualdad de patrones es, a priori, mayor, en el an´ alisis por distribuciones nos centraremos en fijar los patrones y comparar los conjuntos correspondientes a los distintos grupos de pacientes. b E, X bP y X b S, Supongamos entonces que tenemos tres grupos que deseamos comparar, a saber, X matrices correspondientes a los vectores de un patr´on o tipo de patrones determinado sobre el conjunto de caracter´ısticas Cb. b e , ∀e ∈ E = {E, P, S} es una variable aleatoria que se ha Como hemos visto, cada columna de X e e e e b E, X bP y X b S mediante X be = desplazado seg´ un 18 para obtener los e cj , obteni´endose as´ı las matrices X b Xe + ∆e , ∀e ∈ E = {E, P, S}. De cada una de las columnas de estas matrices desplazadas se han calculado las funciones de densidad descritas m´ as arriba (normal, normal logar´ıtmica, exponencial, gamma y Weibull), y tambi´en se han calculado los test χ2 de Pearson de cada una de ellas. Para poder comparar cualitativamente las distribuciones de los tres grupos de vectores, todas deben ser ajustadas por la misma funci´ on de densidad, pues de esta manera podr´an hacerse comparaciones entre los par´ amentros (media, desviaci´ on, forma, superposici´on con las dem´as, escala, . . . ).

126

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

Por ello, se debe definir una funci´ on objetivo que minimizar para seleccionar la funci´on de distribuci´on que, de manera global, se ajusta mejor al conjunto de los tres grupos para la caracter´ıstica cj : Definici´ on 19. Vector de resultados de los tests e b Sea X una matriz de datos. Sea χ2j,k el resultado de la realizaci´ on del test χ2 de Pearson sobre la caracter´ıstica j ajustada por la distribuci´ on fk , ∀fk ∈ D = {fn , fl , fe , fg , fw }. Definimos el vector de tests  θ = χ2j,n

χ2j,l

χ2j,e

χ2j,g

χ2j,w



(6.17)

como el conjunto de resultados del test para cada tipo de ajuste sobre la caracter´ıstica cj . Definici´ on 20. Funci´ on objetivo e b Sean Xe , ∀e ∈ E = {E, P, S} las tres matrices de datos desplazados por la matriz ∆e . Sea Θ la matriz compuesta por tres vectores fila θE , θP y θS resultados de los tests de ajuste de la caracter´ıstica cj en cada enfermedad. |E | X Sea φ el vector fila resultado de la suma de las filas de Θ, φk = Θik . e=1

Se define la funci´ on objetivo como la b´ usqueda del elemento del vector φ cuyo valor sea m´ınimo

φ = m´ın

  |E | X  e=1

Θe,k

    

, ∀k ∈ {1, . . . , |D|}

(6.18)

Si φmin = φk , entonces se seleccionar´ a la funci´ on de densidad fk para el ajuste de los cj de cada uno e b e. de los conjuntos X

e b e , obteni´endose Este procedimiento se realizar´ a para cada una de las columnas de las matrices X finalmente un conjunto D de p funciones de densidad que indican c´omo hay que ajustar las caracter´ısticas para que los errores de ajuste, en su conjunto, sean m´ınimos. Adem´ as, se habr´ a obtenido un vector cuyos elementos se corresponden con cada uno de los elementos de D, y cuyo valor es φmin :  Φ = φmin 1

···

φmin p



(6.19)

En definitiva, el algoritmo seguido para calcular las distribuciones ´optimas de cada una de las caracter´ısticas es el descrito en 5 y 6. Algoritmo 5: C´ alculo de los mejores ajustes de cada caracter´ıstica (1/2) b E, X b P, X bS entrada :X b e , ∀e ∈ E ∆e ← r vectores fila con los m´ınimos de las columnas de X e be ← X b e + ∆e , ∀e ∈ E X for e ← 1 to |E | do for j ← 1 to p do for b ← 1 to |D| do

matrices de datos

e be λ ← par´ ametros del ajuste por la distribuci´on b sobre la columna j de X

e be θ ← resultados del test sobre el ajuste por la distribuci´on b sobre la columna j de X

Λ j ← λ Θj ← θ Λe ← Λ Te ← Θ

6.6 - An´ alisis de las distribuciones de cada componente

127

Algoritmo 6: C´ alculo de los mejores ajustes de cada caracter´ıstica (2/2) for j ← 1 to p do for e ← 1 to |E | do Θe ← Te,j |E | X φ← Θe,k , ∀k ∈ {1, . . . , |D|} e=1

[φmin , k min ] ← m´ın {φ}

for e ← 1 to |E | do Λopt e,j ← Λe,j,kopt grabar Λopt en disco

6.6.3.

Resultados y conclusiones

fabs

fabs

fabs

Al igual que en los an´ alisis anteriores, aqu´ı tambi´en se buscan las caracter´ısticas m´as indicadas para realizar un diagn´ ostico diferencial entre los distintos tipos de paciente. La metodolog´ıa explicada permite superponer las funciones de densidad de cada una de las caracter´ısticas para cada uno de los grupos de pacientes, dado un patr´ on o tipo de patr´on dado. C. 11. Normal En primer lugar, se analizar´ an las caracter´ısticas relacio·10−8 2 nadas con los conjuntos de vectores obtenidos de clasificar 1,5 los patrones por tipo de patr´ on para cada enfermedad, y des1 pu´es se pasar´ a a realizar un an´ alisis m´ as concreto sobre los patrones por separado. 0,5 Antes de comenzar, hay que explicar que no en todos los 0 0 1 0,5 casos las superposiciones ser´ an tan esclarecedoras como se desear´ıa. En la figura 6.24 se puede ver un ejemplo de ello. ·109 T. Esencial(147 puntos) Esta figura pretende ser un ejemplo para mostrar que hay al200 gunas caracter´ısticas para las cuales las distintas enfermedades, a igualdad de patr´ on o tipos de patr´ on, presentan valores 150 similares, tanto que incluso parecen la misma funci´on de den100 sidad. En el ejemplo se puede ver c´ omo la caracter´ıstica c11 50 (S (|bisp|)) toma valores muy pr´ oximos entre los distintos ti0 pos de paciente. Aqu´ı se muestran las distribuciones de la c11 0 2 4 al haber reunido en una sola matriz los vectores de todos los ·108 patrones, no ya uno solo ni un conjunto de ello relacionado Parkinson(679 puntos) con el tipo de movimiento, sino su totalidad. 1,000 Como se puede observar, los valores de r para las matrices 800 b E, X bP y X b S son, respectivamente re = 147, rp = 679 X 600 400 y rs = 641. Esto significa que el total de vectores con los 200 que se trabaja, en cada enfermedad e incluyendo los vectores 0 at´ıpicos es re , rp y rs , lo que nos muestra la delicadeza con 0 0,5 1 la que hay que trabajar y nos da una idea de c´omo de fiables ·109 pueden ser los resultados obtenidos. Sanos(641 puntos) Esta figura es un ejemplo de una mala caracter´ıstica, pues 1,000 la superposici´ on es enorme, y ser´ıa complicado determinar 800 con certeza d´ onde incluir un nuevo vector dado su valor para 600 esta caracter´ıstica. A´ un as´ı, no es el caso m´as acusado de 400 superposici´ on o estrechamiento de la distribuci´on, aunque en 200 estos casos se ha decidido no mostrar las figuras, pues no se 0 0 1 2 3 4 podr´ıa ver pr´ acticamente nada. 8 ·10 En lo que sigue, se mostrar´ an las caracter´ısticas seleccionadas como interesantes para su selecci´ on, y se estudiar´an de acuerdo al criterio expuesto m´ as arriba. Figura 6.24: Distribuciones de la caracter´ıstica c11 (S (|bisp|))

128

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

Las caracter´ısticas seleccionadas Dado que hay varias caracteristicas que se presentan de la misma manera, o incluso de forma m´as acusada, que en la figura 6.24, la selecci´ on se ha realizado tratando de encontrar las funciones de densidad m´ as diferenciables posible. A´ un as´ı, hay algunos casos, como se ver´a en las figuras siguientes, en los que los conjuntos se superponen, pero ser´ a el algoritmo de diagn´ostico el encargado de dar uuna ponderaci´on mayor o menor a estas caracter´ısticas. Las caracter´ısticas seleccionadas para realizar el an´alisis por distribuciones se muestran en la tabla 6.2 Tabla 6.2: Caracter´ısticas seleccionadas por an´ alisis de distribuciones Caracter´ısticas seleccionadas 2

5

7

8

23

24

fm´ax (P SD)

m4 (P SD)

N2,42 % (P SD)

N95,3 % (P SD)

N4,3 % (diag|bisp)

N0,15 % (diag|trisp)

30

33

35

36

38

39

ay

fm´ax (P SDy )

H(p)

H(e p)

H(q)

(e q)

Nota 12: Figuras de las distribuciones Puesto que las figuras de las distribuciones ocupan bastante espacio, y para facilitar la lectura del documento, se ha decidido ubicar las figuras de las distribuciones en el anexo D, en la secci´on D.1.

Estudio por tipos de patr´ on Comenzamos con los conjuntos correspondientes a los patrones est´aticos, cin´eticos y din´amicos. Como se explic´ o en el cap´ıtulo 2, los patrones est´aticos se componen del PT1, reposo absoluto (codo apoyado) y el PT2, reposo en contra del peso del brazo. Los patrones cin´eticos tienen naturaleza un tanto distinta, debido a que se requiere mayor o menor concentraci´on, dependiendo del tipo de camino seguido o de la rapidez con la que se ha realizado. Por u ´ltimo, los patrones din´amicos consisten en la implementaci´ on tanto de alg´ un patr´ on est´ atico como de alguno cin´etico, pero aplic´andosele una fuerza virtual. Patrones est´ aticos Los dos patrones que componen las caracter´ısticas est´aticas son similares, pero no iguales. El primero deber´ıa mostrar una clara diferencia entre pacientes de temblor esencial y Parkinson, pues resulta ser el mantenimiento de una postura sin tener que vencer ninguna fuerza, caso t´ıpico de temblor parkinsoniano, y caso raro de temblor esencial. En la figura D.1a se puede ver que para los patrones est´aticos existen algunos valores no esperados. Podemos apreciar un c´ umulo de vectores en torno a los 5-6Hz para el caso del temblor esencial, lo que significa que el temblor ha tenido lugar en la realizaci´on de los patrones est´aticos. Esto puede deberse a que el temblor se ha producido en la realizaci´ on del PT2, o simplemente a que estos vectores son at´ıpicos. Para comprobarlo habr´ a que estudiar el caso de cada uno de los patrones por separado. En el caso de los vectores de Parkinson, vemos un c´ umulo de ellos en torno a la frecuencia de corte del filtro. Sin embargo, la presencia de vectores alrededor de los 5-7Hz puede deberse, efectivamente, a la manifestaci´ on del temblor en la realizaci´ on de los patrones est´aticos, especialmente del patr´on PT1. Los vectores acumulados en torno a la frecuencia de corte pueden deberse a temblores parkinsonianos de baja frecuencia (en torno a los 4 Hz) o bien a la no manifestaci´on del temblor en la realizaci´on de alguno de los dos patrones, por lo que el espectro suave y sin picos provocar´ıa un m´aximo a la frecuencia de corte del filtro. Esta segunda hip´ otesis puede deberse al patr´on PT2, pues la necesidad de vencer el peso del brazo para mantener la postura permite al paciente de Parkinson atenuar el temblor. Respecto de las otras caracter´ısticas, llama la atenci´on que, en general, quedan basatante superpuestas, lo que, a priori, dificultar´ a el diagn´ ostico empleando l´ogica borrosa. Las caracter´ısticas que resultan mejores en cuanto a la poca superposici´ on son las de entrop´ıa (c35 , c36 , c38 y c39 ).

6.6 - An´ alisis de las distribuciones de cada componente

129

No obstante, la depuraci´ on de vectores at´ıpicos deber´ıa tener en cuenta que los vectores de temblor esencial en torno a los 6Hz y los vectores de Parkinson en torno a la frecuencia de corte no son normales, realizando una depuraci´ on de los mismos. De nuevo llama la atenci´ on la poca cantidad de vectores, sobre todo de temblor esencial. Teniendo en cuenta que los patrones est´ aticos son solo dos, no es de extra˜ nar esta escasez, aunque si existieran m´ as vectores, los ajustes de las distribuciones tendr´ıan m´as validez que la que tienen ahora. Por ejemplo, la caracter´ıstica c7 para el caso de los enfermos de temblor esencial se ajusta por una distribuci´ on normal, cuando tiene forma claramente de distribuci´on exponencial o Gamma. Esto es debido a que, de manera global, la funci´ on objetivo entrega un m´ınimo en la suma de los tests cuando se ajustan las distribuciones con la funci´ on de densidad normal. Sin embargo, si se tuvieran m´as vectores de temblor esencial, por ejemplo, el test χ2 tomar´ıa otro valor para otro ajuste y, tal vez, cambiar´ıa el m´ınimo global, seleccion´ andose otra funci´ on de densidad como ´optima para representar los conjuntos de datos. Nota 13: N´ umero de vectores y ajuste de las distribuciones El n´ umero de vectores es muy importante para el ajuste de una distribuci´on y, por lo tanto, para el resultado del test χ2 de Pearson. El que uno de los conjuntos tenga un n´ umero deficiente de vectores puede provocar que el ajuste sea malo, dando un valor inv´alido en el test χ2 , y seleccion´andose un ajuste global indebido a partir de la funci´on objetivo. Las caracteristicas aqu´ı expuestas han sido seleccionadas, entre otras cosas, al acierto en el ajuste global. No obstante, los ajustes han sido buenos en general, pudi´endose mejorar por supuesto con un n´ umero mayor de vectores con los que fidelizar el test χ2 .

Patrones cin´ eticos En este caso los resultados parecen m´as coherentes, a´ un habiendo presencia de valores que llaman la atenci´ on. Las pruebas cin´eticas son un total de doce, y en general son parecidas. Sin embargo, las ligeras diferencias que existen entre ellas pueden hacer que un temblor se manifieste o no. Por ejemplo, los patrones lineales no requieren de gran concentraci´on, por lo que los pacientes de temblor esencial no deber´ıan temblar mucho, al contrario que los pacientes de Parkinson. Sin embargo, ocurre lo contrario en aquellos patrones en los que la concentraci´on requerida es mayor, como los de espiral o los de la senoide. Por ello se establece la hip´ otesis de que la presencia de valores que aprecen at´ıpicos en los patrones de tipo cin´etico pueden deberse, adem´ as de a ser at´ıpicos, a las diferencias entre los propios patrones y c´ omo ´estos afectan a la manifestaci´ on del temblor en un paciente. Podemos comprobar en la figura D.4a que el n´ umero de vectores ha aumentado considerablemente en los tres tipos de paciente. El caso de temblor esencial llama especialmente la atenci´on, pues se divide en dos grupos bien diferenciados, al menos para la caracteristica c2 (fm´ax (P SD) ). En estos tipos de patr´ on el temblor esencial deber´ıa producirse de manera diferenciada. Se observa que el numero de vectores en torno a las frecuencias t´ıpicas de este tipo de enfermedad es bastante m´ as importante que los vectores cerca de la frecuencia de corte. Esto puede deberse a que algunos de los pacientes no hayan manifestado temblor en la realizaci´on de alguna de las pruebas, o a que en efecto haya habido alg´ un error en la medida o en las etapas anteriores al an´alisis, como la preparaci´on de los datos. Respecto de los vectores de Parkinson, sigue produci´endose un pico en la frecuencia de corte, producido bien por un temblor d´ebil en la realizaci´on de algunas pruebas, bien por errores en el pretratamiento de los datos. No obstante, se nota c´ omo la proporci´on entre los vectores a la frecuencia de corte y los de frecuencias mayores ha disminuido, aunque siguen apareciendo unos cuantos a las frecuencias t´ıpicas del temblor Parkinsoniano. Esta disminuci´on puede deberse a que realmente se est´a haciendo bien la caracterizaci´ on, pues el temblor parkinsoniano tiende a desaparecer con el movimiento y la intenci´ on, pero tambi´en puede aparecer en los patrones m´as sencillos como los lineales. Respecto de los pacientes sanos, se puede comprobar que todos est´an m´as concentrados en torno a la frecuencia de corte, debido a la no presencia de un pico en el espectro que muestre la acci´on de un temblor en el movimiento. En cuanto a las otras caracter´ısticas, es remarcable la diferencia que hay entre las distribuciones de tembor esencial y Parkinson o sanos para la c7 , la c38 y la c39 . Estas ser´an bien ponderadas a la hora de realizar el diagn´ ostico por l´ ogica borrosa. Patrones din´ amicos Hay cuatro patrones de tipo din´amico: PT15, PT16, PT17 y PT18. La realizaci´ on, como se muestra en la tabla C.1, es total para todas las enfermedades, por lo que no hay ninguna,

130

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

como en el caso de los patrones cin´eticos (los patrones PT4, PT7, PT12 y PT14 no fueron realizados por ning´ un paciente de temblor esencial), de la que se deba prescindir por no poder comparar entre las enfermedades. Recordando, el PT15 era igual que el PT1 pero con una fuerza aplicada en el extremo del Dimeter® . El PT16 era igual que el PT3 pero con una fuerza, como el PT17 (con una fuerza distinta). El PT18 era una espiral como el PT8, pero aplic´ andosele tambi´en una fuerza. Esto implica que, te´ oricamente, debe haber claras diferencias entre los pacientes de temblor esencial y Parkinson en la realizaci´ on del PT18. En general, en los patrones din´amicos debe haber una clara aparici´ on de vectores de Parkinson en torno a la frecuencia de corte o repartidos a lo largo de todo el espectro hasta fN , debido a la desaparici´ on del temblor en el movimiento, al igual que en los pacientes sanos. Por otra parte, el temblor esencial debe haber aumentado la proporci´on de vectores cuya c2 se encuentre en torno a los valores normales de temblor esencial frente a los at´ıpicos en la frecuencia de corte. En efecto, en la figura D.7a se puede ver c´omo los vectores at´ıpicos en fc de temblor esencial han disminuido en proporci´ on respecto a los otros tipos de patr´on. Tambi´en se ha producido lo esperado en el caso de los pacientes de Parkinson, y por supuesto en el caso de los pacientes sanos. Como se puede comprobar, las caracter´ısticas c5 y c7 siguen siendo buenos indicadores de las diferencias entre temblor esencial y Parkinson, e incluso mejor para los sanos. Todos los patrones juntos Al estudiar los vectores de todos los patrones juntos se puede ver claramente la presencia de dos grupos en el caso del temblor esencial. Uno de ellos (el de m´as baja frecuencia, figura ??) puede deberse tanto a la presencia de at´ıpicos como a los patrones de reposo y de baja concentraci´ on, en los que el temblor no se ha manifestado. El grupo que se encuentra a una frecuencia m´as alta se corresponde justamente con el rango de frecuencias del temblor esencial (incluso algunos vectores por debajo). En el caso del Parkinson no est´ a tan claro, pues en la figura se pueden ver at´ıpicos hasta los 50 Hz, debidos a un espectro muy plano, seguramente en la realizaci´on de patrones din´amicos complejos. No obstante, se pueden ver dos barras del histograma alrededor de los 5 Hz, lo cual es coherente con el rango de frecuencias del temblor parkinsoniano. En el caso de los pacientes sanos tambi´en concuerda con lo previsto: la mayor´ıa de los vectores se encuentran concentrados en una frecuencia de 3.5 Hz, debido a la detecci´on del m´aximo del espectro a la frecuencia de corte del filtro por ser demasiado plano (no existe temblor). Estudio por patrones separados Si ya el n´ umero de vectores es peque˜ no en el caso del estudio de los conjuntos de tipos de patr´on (sobre todo para los est´ aticos), el n´ umero de vectores para cada patr´on por separado es escaso. Por ejemplo, el patr´ on PT1 fue realizado un total de doce veces por los pacientes de temblor esencial, lo que da lugar a doce vectores con los que se pretende realizar un ajuste por una distribuci´on. Es m´as, a la hora de diagnosticar, hay que separar este grupo en vectores de entrenamiento y vectores de test en una relaci´ on del 80-20 %, lo que nos dejar´ıa con solo nueve vectores para su ajuste, y tres para el diagn´ostico. Evidentemente, los resultados obtenidos no pueden considerarse como v´alidos al 100 %. Dado que hay un total de dieciocho patrones, y que el fin de este documento es de dar un resumen de los m´etodos y de los resultados, mostraremos u ´nicamente los patrones cuyo an´alisis tiene mayor inter´es. Patr´ on PT1 Este patr´ on tiene una realizaci´on total de 134 vectores, 12 de temblor esencial, 69 de Parkinson y 53 de pacientes sanos. Sin embargo, y al igual que sucede en otros casos, ya en la etapa de pretratamiento y casificaci´ on se han tenido que desechar algunos de ellos, por dar valores num´ericos en algunas caracter´ısticas err´ oneos, debido al c´ alculo impreciso del computador. As´ı, la realizaci´on disminuye a 12, 65 y 46 vectores, respectivamente. Te´ oricamente este es el patr´ on para detectar Parkinson con facilidad. Los vectores de temblor esencial no deber´ıan dar valores de pico en una frecuencia distinta a la de corte, y si es as´ı, ser´ıan at´ıpicos. Como vemos en la figura D.13a, la mayor´ıa de los vectores de temblor esencial est´an en fc , pero hay cuatro por encima de 4.5Hz. Estudiando el caso, se encontr´o un paciente de esta enfermedad realmente at´ıpico (presentaba un temblor intenso en practicamente todas las pruebas), lo que explicar´ıa la presencia de estos vectores fuera de lo l´ ogico. Por otro lado, los vectores de Parkinson est´an bien a partir de los 3.7 Hz, aunque hay algunos casos en fc , que consideraremos como p´ uramente at´ıpicos.

6.7 - Eliminaci´ on de vectores at´ıpicos

131

En cuanto al resto de caracter´ısticas, se mantienen las del estudio por tipos de patr´on. Aunque no se muestren en las figuras, las funciones de densidad siguen estando ligeramente separadas, aunque necesitar´ an de una limpieza de valores at´ıpicos para obtener los resultados deseados. Patr´ on PT2 En este caso es de esperar que el temblor de Parkinson disminuya, y que aumente el temblor de esencial. No ser´ıa extra˜ no que en proporci´on fueran iguales, pues estar´ıamos a caballo entre una prueba de reposo y una prueba din´ amica. Los resultados de la figura D.14a corroboran la segunda hip´otesis. En efecto, es pr´acticamente imposible, de acuerdo con las funciones de densidad, distinguir un vector de Parkinson de uno de temblor esencial. Como se puede ver, la proporci´on de vectores de Parkinson cerca de fc ha aumentado, frente a la ligera disminuci´ on de los vectores de temblor esencial. A´ un as´ı, sigue habiendo vectores at´ıpicos, por ejemplo un Parkinson a una frecuencia de 8 Hz (fuera de su rango normal: 4-6Hz) Patr´ on PT18 En este caso tambi´en observamos algo interesante. La proporci´on de vectores de esencial alrededor del rango normal del temblor esencial es considerablemente mayor en este caso que en los dem´ as. A pesar de ello, la funci´ on de densidad obtenida no permite diferenciarse bien de las funciones de densidad de Parkinson o de sanos. Esto demuestra la necesidad de eliminaci´on de los vectores at´ıpicos, y c´omo ´esto podr´ıa influir en un correcto diagn´ ostico. En cuanto a los vectores de Parkinson, vemos que tienden a esparcirse por el espectro, concentr´andose a´ un as´ı en la frecuencia de corte. El mayor problema es que la frecuencia de corte est´a muy pr´oxima al comienzo del rango de frecuencias t´ıpicas del Parkinson, lo que dificulta la identificaci´on de los vectores at´ıpicos en torno a ella.

6.7. 6.7.1.

Eliminaci´ on de vectores at´ıpicos Introducci´ on

El tratamiento de datos at´ıpicos en una investigaci´on es una parte muy delicada e importante para obtener resultados fidedignos. La bibliograf´ıa que versa sobre ello es extensa [Campbell, 1980], [L´opez, 2004], [Esbensen et al., 2002], [Krzanowski and Krzanowski, 2000], y tratan desde la detecci´on univariante, pasando por la multivariante, hasta la megavariante8 . La m´ axima del an´ alisis multivariante de datos es que ‘‘todos los datos son necesarios’’, y que no se deben evitar algunas componentes para extraer los datos, pues la informaci´on muchas veces est´a en la correlaci´ on que existe entre las variables. Esto puede parecer contradictorio con lo que se viene haciendo hasta hora, pero a lo que esta m´ axima se refiere es que los datos at´ıpicos pueden encontrarse solo a partir del conjunto de datos, no significa que no podamos, una vez se han encontrado los datos at´ıpicos, estudiar los conjuntos a partir de las variables m´as significativas. La figura 6.25 muestra un ejemplo de la necesidad de utilizaci´on de todas las variables para detectar los datos at´ıpicos, pues si se miraran por separado, el punto A no podr´ıa ser considerado como punto at´ıpico. Por ello, hay que intentar encontrar la manera de detectar en un espacio de dimensi´on p algunos at´ıpicos que pueden estar desviando los par´ametros del conjunto. Datos at´ıpicos Podemos decir de un dato at´ıpico que es una observaci´on que parece haber sido generada de una forma distinta al resto de los datos. Pueden ser causadas por varios motivos, como errores de medici´ on, cambios en el instrumento de medici´ on o heterogeneidad de los propios datos. Adem´as, hay que contar con que estamos trabajando con seres humanos que realizan pruebas distintas, y en distintas condiciones, por lo que la probabilidad de heterogeneidad es importante. Los an´ alisis efectuados [Pe˜ na, 2002] demuestran que los valores at´ıpicos pueden superar el 5 % del tama˜ no de la muestra, y parece, por los resultados obtenidos a partir del an´alisis de los datos desde diferentes puntos de vista, que este es nuestro caso. 8 Modelos

de an´ alisis megavariado para entregar resultados multivariantes [Eriksson, 2006].

132

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas 1 0,5 0 A

A

−0,5 −1

A

−1

−0,5

0

0,5

1

Figura 6.25: Ejemplo de la necesidad de considerar todas las variables para detectar los at´ıpicos Por definici´ on, un dato at´ıpico debe estar alejado del resto, con lo que la distancia de este punto al conjunto debe ser grande. Podemos pensar en la distancia, por ejemplo, desde el punto at´ıpico al centro de los datos. En el caso de que las variables est´en incorreladas, esta suposici´on es v´alida, pues la distancia que comunmente empleamos para medir lo cerca que est´an dos puntos es la distancia eucl´ıdea, que nos lleva al concepto de esfera o hiperesfera (dos puntos que est´en a la misma distancia del centro pertenecer´an a una hiperesfera de radio la distancia de uno de ellos a este centro). Sin embargo, no siempre se trabaja con variables incorreladas (de hecho no es lo normal), por lo que este concepto ya no es v´alido. Hay que encontrar la manera de medir la distancia de un punto a un conjunto que s´ı est´e correlado. Imaginemos que queremos hacer un estudio sobre la complexi´on de los habitantes de Espa˜ na. Representaremos la altura frente a la talla de los zapatos, y tomaremos cincuenta muestras de entre toda la poblaci´ on. Ambas variables est´ an correladas (una persona alta, en general, tiene pies grandes, y una baja, pies peque˜ nos). Se trata de encontrar una medida de c´omo de parecidos son dos personas entre ellas teniendo en cuenta al conjunto. En la figura 6.26 se puede ver esta idea. Se busca una m´etrica que nos diga que la distancia entre A y B es menor que la que hay entre B y C, puesto que A y B son claramente m´ as cercanos a lo general. De esta manera, C ser´ıa considerado un at´ıpico por estar ‘‘lejos’’ de los dem´as seg´ un esta nueva m´etrica. 0,4

Altura

0,2

B

0 C −0,2 A −0,4 −0,4

−0,2

0

0,2

0,4

Talla de zapatos

Figura 6.26: Relaci´ on entre la talla de zapatos y la altura Esto nos lleva a pensar que la correlaci´ on de los datos puede tener un papel importante en la ponderaci´ on de las distancias de los puntos de la nube y la misma. Pues bien, existe una distancia que nos

6.7 - Eliminaci´ on de vectores at´ıpicos

133

permite realizar esta medici´ on, llamada distancia Mahalanobis. Definici´ on 21. Distancia Mahalanobis Se define la distancia Mahalanobis entre un punto y su vector de medias como q 0 di = (xi − x) S−1 (xi − x)

(6.20)

Cuando el coeficiente de correlaci´ on es nulo, r = 0, entonces la distancia Mahalanobis se reduce a a calcular la distancia eucl´ıdea estandarizada por la matriz de covarianzas. Cuando r 6= 0 se a˜ nade un t´ermino adicional que es positivo (separando los puntos) cuando las diferencias entre las variables tienen el mismo signo (r > 0), o distinto signo (r < 0). Podr´ıamos por tanto identificar los vectores at´ıpicos calculando las distancias Mahalanobis de cada punto y compar´ andolas. Sin embargo, los efectos de los at´ıpicos sobre los par´ametros del conjunto pueden ser fatales, variando el vector de medias y la matriz de covarianzas con la que se calcula la distancia Mahalanobis, invalidando los resultados que con ´esta se pudieran obtener. Por ejemplo, imaginemos que tenemos una nube de datos perfectamente incorrelada en IR2 (tiene forma de c´ırculo), a la que a˜ nadimos un punto at´ıpico muy alejado del centro. Esto distorsionar´ a el coeficiente de correlaci´ on entre las dos variables, y mostrar´a que est´an correladas de alguna manera. Incluso si tenemos tres o cuatro puntos at´ıpicos distribuidos en forma de tri´angulo o cuadrado, muy alejados del centro, la detecci´ on de uno de ellos ser´a a´ un m´as complicada, pues se enmascaran entre s´ı.

6.7.2.

Implementaci´ on

El procedimiento para detectar valores at´ıpicos es eliminar de la muestra todos los puntos sospechosos, calcular los par´ ametros de la nueva nube, y comprobar que la identificaci´on de los sospechosos ha sido correcta mediante la distancia Mahalanobis a partir de estos par´ametros ‘‘limpios’’. Se iterar´a esto hasta no encontrar m´ as vectores at´ıpicos. Con frecuencia, los vectores at´ıpicos multivariantes aparecen debido a efectos peque˜ nos en cada una de las variables [Pe˜ na, 2002], como un error sistem´atico en todas las variables (en nuestro caso, caracter´ısticas). Un problema t´ıpico es se˜ nalar valores at´ıpicos que realmente no lo son. Para evitar este problema, pueden calcularse las direcciones en las que se puedan detectar con m´as fiabilidad los datos at´ıpicos, como por ejemplo la recta que une el centro de la nube y el punto at´ıpico [Pe˜ na, 2002]. La idea encontrada en [Pe˜ na and Prieto, 2001] consiste en proyectar los datos sobre direcciones de m´axima kurtosis univariante. Esto se debe a que en t´erminos univariantes una peque˜ na proporci´on de puntos at´ıpicos provoca un coeficiente de kurtosis alto. Por otra parte, un n´ umero alto de at´ıpicos concentrado puede producir baja kurtosis, por lo que si se desea detectar grupos de at´ıpicos habr´a que explorar las direcciones de m´ınima kurtosis. Si trabajamos sobre un espacio de dimensi´on p, la idea es encontrar p direcciones ortogonales de m´ axima y m´ınima kurtosis, proyectar los datos y eliminar provisionalmente los datos extremos, calcular la media y matriz de covarianzas con el conjunto limpio y comprobar con la distancia Mahalanobis los posibles sospechosos.  T ¯ y matriz de covarianzas S, se Si el conjunto X = x1 x2 · · · xr tiene vector de medias x 1/2

¯ ) con media cero y matriz de covarianzas identidad9 . estandarizar´ an los datos para obtener zi = Sx (xi − x El algoritmo descrito en [Pe˜ na, 2002] es el algoritmo 7(v´ease B.4.1 para m´as detalle): Tras el algoritmo de marcaje de los posibles datos at´ıpicos, se calcular´an la matriz de covarianzas SR y el vector de medias x ¯R con los valores no sospechosos, y se calcular´an las distancias Mahalanobis de los vectores sospechosos como ¯R) = dR (xi , x

9 Ver

1/2

ap´ endice B para Sx .

q

0

(xi − x ¯R ) S−1 ¯R ) R (xi − x

0

(6.21)

134

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

Algoritmo 7: Detecci´ on de at´ıpicos por kurtosis entrada :Z matriz de datos estandarizada while se detectan sospechosos do for j ← 1 to p do 4 P  (j) ¯ calcular dj como soluci´ on de m´ ax yi − y (j) + λ(d0 d − 1) Ver [Pe˜ na, 2002] hola  z(j+1) ← I − dj d0j z(j)

for j ← p + 1 to 2p do

(j)

(j)

(j)

on de zi sobre dj yi = d0j zi ser´ıa la proyecci´ proyectar sobre el sobespacio ortogonal a dj de dimesi´ on p − j

calcular dj como soluci´ on de m´ın

P

(j)

yi

¯ − y (j) (j) yi

4

+ λ(d0 d − 1)

(j) d0j zi

Ver [Pe˜ na, 2002] (j)

hola = ser´ıa la proyecci´ on de zi sobre dj  (j) (j+1) 0 z ← I − dj dj z proyectar sobre el sobespacio ortogonal a dj de dimesi´ on p − j/2 sospechar de los puntos que en alguna de las 2p direcciones obtenidas verifiquen  (j) yi − med y (j)  >5 meda y (j)

Nota 14: Fuente del algoritmo de kurtosis La implementaci´ on de este algoritmo fue descrita en [Pe˜ na, 2002], y de manera desinteresada lo puso al p´ ublico en http://halweb.uc3m.es/fjp/download.html, fuente de la cual se ha obtenido el c´ odigo Matlab® para su utilizaci´ on. Mediante este algoritmo se obtendr´ a un conjunto de datos limpios, se habr´an identificado los datos at´ıpicos, y se habr´ an calculado una matriz de covarianzas nueva y un vector de medias con los que deshacer la estandarizaci´ on

6.7.3.

Criterio de eliminaci´ on por kurtosis

El algoritmo descrito se ha empleado para la detecci´on de datos at´ıpicos en todos los conjuntos. Se llama a la funci´ on limpiarBaseDeDatos() para obtener el conjunto de datos limpio, y ´esta llama al algoritmo de kurtosis. La implementaci´ on de este algoritmo descrito por √ su autor considera que aquellos valores cuya distancia Mahalanobis al conjunto sea superior a p + 3 2p [Pe˜ na, 2002] se considerar´an como at´ıpicos, bas´ andose en el hecho de que el promedio de la distancia Mahalanobis el p. Adem´as, en la detecci´ on de los sospechosos establece un l´ımite de seguridad por el cual no permite la detecci´on de m´as del 40 % de datos como at´ıpicos, para salir del bucle while.

6.7.4.

Criterio de eliminaci´ on manual

El algoritmo de kurtosis, sin embargo, no es infalible para nuestros prop´ositos. Por ejemplo, deja algunos vectores en temblor esencial cerca de fc = 3,5Hz cuando se realizan patrones din´amicos, lo cual es t´ecnicamente at´ıpico. Por ello, se ha tenido que realizar un estudio profundo de cada uno de los conjuntos, y determinar cuando y como repasar la limpieza del algoritmo de manera manual. El criterio de eliminaci´ on manual es el siguiente: Para el temblor esencial: Si la frecuencia a la que se produce el m´aximo del PSD se encuentra por debajo de los 4Hz cuando se trata de patrones de tipo cin´etico o din´amico, se eliminar´an todos los vectores cuya componente correspondiente a la c2 sea inferior a este umbral. En caso de que se trate de patrones de tipo est´atico, estos vectores se mantendr´an, eliminando los vectores por encima del umbral para el caso del patr´on PT2.

6.7 - Eliminaci´ on de vectores at´ıpicos

135

Para el Parkinson: En el caso de los patrones est´aticos, se eliminar´an los vectores que se encuentren justamente en la franja 3-3.75 Hz, pues el temblor debe manifestarse normalmente a partir de los 4Hz. Para el resto de los patrones, si no han sido detectados los vectores de frecuencias del m´aximo superiores a 8Hz, se eliminar´ an, al igual que los vectores superiores a 6Hz Para los pacientes sanos: En este caso se eliminar´an los vectores de m´as 8Hz, por se completamente at´ıpicos.

6.7.5.

Resultados y conclusiones

Como se ha indicado m´ as arriba, para realizar una buena b´ usqueda de individuos at´ıpicos entre un conjunto es una buena pr´ actica emplear todas las medidas de estos individuos. Nosotros, como se vio en los an´ alisis anteriores, hemos detectado que hay algunas caracter´ısticas redundantes y otras que no aportan ning´ un valor. Con esto justificamos que para el algoritmo de kurtosis se empleen u ´nicamente algunas de estas caracter´ısticas. La aplicaci´ on del algoritmo de kurtosis seguido de la selecci´on ‘‘manual’’ de los vectores ha entregado los resultados que se presentan a continuaci´on. En las figuras a las que se hace referencia, esta vez se muestra u ´nicamente la caracter´ıstica m´ as interpretable, la c2 , aunque si es necesario especificar algo sobre las otras caracter´ısticas se a˜ nadir´ a la figura correspondiente. Pese a mostrar, en principio, solo la c2 , se siguen manteniendo las otras once de la tabla 6.2. Estudios por tipos de patr´ on Estos casos son los m´ as delicados de analizar, pues en los conjuntos aparecen vectores generados a partir de patrones en los que el temblor puede aparecer con m´as o menos intensidad. No obstante, como norma general se ha optado por que en los patrones est´aticos predomine el Parkinson frente al temblor esencial, mientras que la limpieza de los vectores de pacientes sanos se realiza seg´ un lo explicitado m´ as arriba. En las figuras 6.27a, 6.27b y 6.27c se muestra c´omo han cambiado las distribuciones al eliminar los at´ıpicos de acuerdo a los criterios anteriores. Como se puede observar, en el caso de los patrones estaticos el Parkinson ha pasado a encontrarse centrado en el rango t´ıpico de frecuencias de este tipo de temblor, pues se trata de posturas en reposo y, pese a existir el PT2, el Parkinson deber´ıa manifestarse notoriamente. No obstante, se mantiene una peque˜ na concentraci´ on de vectores en torno a los 4Hz que indica la presencia de este patr´on ‘‘est´atico– din´ amico’’ en el que el Parkinson tender´ıa a desaparecer. Por su parte, el temblor esencial se concentra en torno a la frecuencia de corte del filtro por tratarse de patrones posturales y de reposo, casos en los que no se suele manifestar. Los pacientes sanos concentran su distribuci´on m´as a´ un en torno a la fc , pues se han descartado no solo los vectores que por kurtosis se consideraros at´ıpicos, sino tambi´en los que tuvieran una componente c2 con un valor superior a 8 (Hz). En cuanto a los patrones cin´eticos, el Parkinson tiende a desaparecer, apareciendo vectores cuya componente c2 se encuentra en torno a fc , pero quedando a´ un restos de algunos vectores de naturaleza correctamente temblorosa, debido a la posibilidad de que algunos pacientes presenten teemblor en los patrones m´ as sencillos y menos ‘‘din´ amicos’’. Sin embargo, el temblor esencial toma protagonismo al avanzar hacia el rango de frecuencias t´ıpico, aunque no demasiado hacia los 7Hz, como ser´a el caso con los patrones din´ amicos, en los que el temblor esencial ser´a con diferencia el mejor caracterizado. Los vectores de los pacientes sanos se muestran todav´ıa concentrados en torno a la frecuencia de corte del filtro, lo que indica, correctamente, la carencia de temblor. Los patrones din´ amicos, como era de esperar, han desplazado a los vectores de Parkinson pr´acticamente hacia fc , mientras que han permitido una diferenciaci´on pronunciada de los vectores de temblor esencial. En el caso de los pacientes sanos, como se pronostic´o, aparecen a´ un algunos vectores a frecuencias de 6Hz, como consecuencia de la posible aparici´on de un ligero temblor al tener que aumentar la concentraci´ on y la tensi´ on muscular. Respecto del an´ alisis de los vectores de todos los patrones en su conjunto, no tiene sentido, pues aparecer´ an tanto los vectores de los patrones est´aticos como los de los patrones cin´eticos o din´amicos, lo que crear´ıa la tentaci´ on de considerar at´ıpicos los vectores de fc de temblor esencia, por ejemplo, cuando realmente su aparici´ on es normal. Lo mismo sucederia con los vectores de Parkinson.

136

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

3 4 Parkinson(52 puntos)

20 15 10 5 0

fabs

10 8 6 4 2 0

5

4

6 8 Sanos(53 puntos)

3

4

5

6

40 30 20 10 0

100 80 60 40 20 0

4 5 6 T. Esencial(38 puntos)

fabs

10 8 6 4 2 0

3

4

5 6 Parkinson(302 puntos)

4 6 8 T. Esencial(15 puntos)

2 1,5 1 0,5 0

5 6 7 8 Parkinson(40 puntos)

4 fabs

fabs

4 3 2 1 0

4 6 8 T. Esencial(16 puntos)

1 0,8 0,6 0,4 0,2 0

3

4 5 Sanos(273 puntos)

3

4

5

2 0

6

3

3,5

4

4,5

5

Sanos(54 puntos)

fabs

2

2 1,5 1 0,5 0

fabs

fabs

fabs

fabs

1 0,8 0,6 0,4 0,2 0

C. 2. Lognormal

C. 2. Lognormal

C. 2. Lognormal

6

(a) Distribuciones de la caracter´ısti- (b) Distribuciones de la caracter´ıstica 2 sin at´ıpicos para vectores de pa- ca 2 sin at´ıpicos para vectores de patrones est´ aticos trones cin´eticos

10 8 6 4 2 0

4

6

(c) Distribuciones de la caracter´ıstica 2 sin at´ıpicos para vectores de patrones din´ amicos

Figura 6.27: Distribuciones de la caracter´ıstica c2 tras la limpieza de at´ıpicos para los conjuntos de patrones de tipo est´ atico, cin´etico y din´ amico. En rojo temblor esencial, en verde Parkinson y en azul sanos

Hay que remarcar la considerable disminuci´on del n´ umero de vectores en todos los casos. Por ejemplo, en el temblor esencial ha disminuido de 22 a 16 vectores para el caso de los patrones de tipo est´atico, en Parkinson de 116 a 52 y en sanos de 89 a 53 para este tipo de patrones. El caso de los cin´eticos es m´ as acusado en temblor esencial, pasando de 97 a 38 puntos. Esto puede deberse a la gran variabilidad de la naturaleza de los patrones, y a c´omo el temblor esencial se manifiesta en cada uno de ellos. Para comprender profundamente esto habr´ıa que estudiar uno por uno los patrones de tipo cin´etico y c´ omo se presenta el temblor esencial en ellos. Sin embargo, los vectores de Parkinson en patrones de tipo cin´etico disminuyen mucho menos en proporci´on: de 377 a 302. Esto puede deberse a que en general, los patrones de tipo cin´etico para los Parkinson son similares, pues en definitiva en todos ellos existe una intenci´ on y, como sabemos, el Parkinson aparece en reposo. Los pacientes sanos disminuyen el n´ umero de vectores de 385 a 273, un descenso considerable. Es l´ogico, pues al ser el espectro tan plano, la aparici´ on de m´ aximos a frecuencias entre fc y fN es normal y probablemente debida a simples fallos de precisi´ on computacional o en la medida. Para los patrones de tipo din´ amico el temblor esencial, sorprendentemente, se reduce a casi la mitad (de 28 a 15), lo cual puede deberse a que ciertos pacientes eran realmente at´ıpicos, o estaban medicados en el momento de realizar las pruebas. A´ un m´as sorprendente el la ca´ıda de los vectores de Parkinson, de 182 a 40. El hecho de que en los patrones din´amicos aparecieran vectores de caracter´ısticas temblorosas para los Parkinson puede deberse a que la realizaci´on de las pruebas se realiz´o seguida, y cuando el paciente lleg´ o a los patrones din´ amicos ya se encontraba cansado y nervioso. Adem´as, hay que recordar que uno de los patrones din´ amicos es el PT15, similar al PT1 pero aplic´andosele una fuerza virtual. Este patr´ on de tipo din´ amico tiene cierta componente de reposo, raz´on por la cual puede que el Parkinson se manifieste.

6.8 - Aglomeraci´ on (clustering) con algoritmos gen´eticos

137

Conclusiones sobre los resultados y la detecci´ on de los atipicos Como se acaba de ver, el n´ umero de vectores at´ıpicos encontrados en los conjuntos aumenta a medida que avanzamos en la realizaci´ on de los patrones. La presencia de estos at´ıpicos puede deberse a las siguientes razones: El paciente estaba medicado en el momento de realizaci´on de la prueba. Esto no es un caso extra˜ no, pues al realizar el an´ alisis de los ficheros de texto en el cap´ıtulo 3 se pudo comprobar que en algunos casos, en el campo ‘‘observaciones’’ aparec´ıa ‘‘medicaci´ on OFF ’’ o ‘‘medicaci´ on ON ’’, y en algunos casos ‘‘en tratamiento desde ¡fecha¿’’. El paciente se iba poniendo nervioso a medida que realizaba las pruebas, introduciendo un error que no depende de la medida, sino directamente de la variable a medir. A medida que se realizaban las pruebas, los pacientes se cansaban, perdiendo la capacidad de concentraci´ on y, en consecuencia, teniendo que esforzarse m´as para la realizaci´on de la prueba, lo que provocar´ıa un comportamiento anormal en el seguimiento del patr´on. Evidentemente, la presencia de vectores at´ıpicos puede deberse a errores en la medida, en el pretratamiento de las trayectorias y al c´alculo de las caracter´ısticas. En definitiva, lo que obtenemos es un conjunto de vectores mucho m´as reducido que al principio, y b ∈ Mr×p y ya habremos obtenido uno de los dos prop´ositos: reducir el tama˜ no de la matriz de datos X b ∈ Mn×p , con n < r, de vectores ‘‘limpios’’. dar lugar a una matriz de datos X

6.8.

6.8.1.

Aglomeraci´ on (clustering ) con algoritmos gen´ eticos Introducci´ on

Hemos visto que, gracias a los distintos puntos de vista con los que observar los conjuntos de datos podemos determinar cu´ ales son las caracter´ısticas m´as representativas de las nubes de puntos. Hemos logrado reducir la dimensi´ on del espacio de b´ usqueda gracias a la proyecci´on de los puntos sobre las direcciones de m´ axima dispersi´ on, calculando las curvas de distribuci´on de cada una de las caracter´ısticas y comprobando cu´ ales son las que proporcionan menos solape entre s´ı, hemos realizado un an´ alisis multivariante para introducir estos estudios, y hemos buscado y eliminado los puntos at´ıpicos mediante un algoritmo de kurtosis e inspecci´ on manual. Se propone tambi´en otro m´etodo de estudio de las nubes de puntos basado en el concepto de clustering, es decir, estudiar los conjuntos que se crean al considerar solo ciertas caracteristicas, y comprobar que estos cunjuntos son lo suficientemente disjuntos como para poder realizar un diagn´ostico diferencial, esto es, llegar a distinguir las nubes de puntos de cada conjunto de pacientes. Trabajamos en un espacio, a priori, de 39 dimensiones, lo cual impide la visualizaci´on de las nubes de puntos de forma directa, tan solo en matrices de dispersi´on bivariante. La idea del an´alisis de conglomerados consiste en seleccionar subconjuntos de caracter´ısticas, por ejemplo dos o tres, con las que sea m´ as c´ omodo trabajar, y comprobar que el clustaring se puede realizar con poco error. Esta idea se dibuja bastante nublada si no se dispone de un ejemplo concreto. En la figura 6.28a se muestra un ejemplo de mala selecci´ on de caracter´ısticas, pues el los conjuntos est´an muy superpuestos y, por lo tanto, el an´ alisis de conglomerados no ser´ a capaz de separar los tres grupos de manera correcta. Sin embargo, en la figura 6.28b se muestra un ejemplo en el que los conglomerados se presentan bien disjuntos, permitiendo al algoritmo de b´ usqueda de los conjuntos detectarlos con mucha precisi´on. El sistema por el cual consideraremos un conjunto de caracter´ısticas como bueno ser´a que el clustering se haya realizado con un error muy bajo respecto de los grupos originales. As´ı, las caracter´ısticas que hayan permitido un clustering n´ıtido podr´an ser seleccionadas como caracter´ısticas diferenciadoras puesto que, en definitiva, lo que los grupos representan son datos de enfermos de Parkinson, temblor esencial y pacientes sanos.

6.8.2.

Motivaci´ on y necesidad

La implementaci´ on de este m´etodo de an´alisis intenta abrir nuevas v´ıas de investigaci´on a esta l´ınea, tratando de salir de las redes nuronales, y proponiendo herramientas como los algoritmos gen´eticos, el clustering o el concepto de distancia a conjuntos para la realizaci´on del diagn´ostico diferencial de datos.

138

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

(a) Ejemplo de clustering imposible, mala elecci´ on de caracter´ısticas

(b) Ejemplo de clustering posible, buena elecci´ on de caracter´ısticas

Figura 6.28: Diferencia entre una buena y una mala elecci´ on de pares de caracter´ısticas de acuerdo al criterio de clustering

No solo supone una t´ecnica aplicable al diagn´ostico de enfermedades relacionadas con el temblor, al igual que el resto de herramientas propuestas en este trabajo, sino que los ´ambitos de aplicaci´on de los algoritmos gen´eticos est´ an a la orden del d´ıa, especialmente en la ingenier´ıa de control, la optimizaci´on y la resoluci´ on de problemas mediante t´ecnicas de investigaci´on operativa. Ya se han mostrado varios m´etodos de an´alisis de los datos, y ´este no es m´as que una introducci´on a lo que en un futuro, con un desarrollo m´ as profundo, podr´ıa dar resultados muy satisfactorios. Los algoritmos gen´eticos son algoritmos robustos, en el sentido de que no se atascan en puntos extremos locales, sino que es precisamente su toque de aleatoriedad lo que les confiere su potencia. Existen numerosas t´ecnicas de clustering [Pe˜ na, 2002], y la bibliograf´ıa relacionada con el empleo de los algoritmos gen´eticos para resolver el problema del clustering es muy escasa. Por ello, la metodolog´ıa aqu´ı presentada supone una innovaci´ on con respecto al estado del arte existente en torno a las t´ecnicas de aglomeramiento que, como ser justificar´ a m´as adelante, deber´a ser perfeccionada.

6.8.3.

Los algoritmos gen´ eticos

Charles Darwin (1809-1882), en su teor´ıa de la evoluci´on, defendi´o que las especies se adaptan a su entorno gracias al perfeccionamiento de sus genes. Este perfeccionamiento consiste en la selecci´on natural acompa˜ nada peque˜ nas variaciones que pueden sufrir los individuos para diferenciarse, a mejor o a peor, del resto de individuos de su especie. A estas peque˜ nas variaciones se las denomina mutaciones, y son la causa de que los p´ ajaros tengan huesos ligeros, las tortugas caparaz´on fuerte y los humanos pulgares oponibles. En un momento dado de la evoluci´ on, algunos individuos de estas especies sufrieron una mutaci´on que les hizo m´ as fuertes que sus competidores sexuales, lo que les permiti´o generar m´as descendencia fuerte que los d´ebiles. De esta manera, los iindividuos m´as adaptados al medio, los m´as fuertes, tienen m´as probabilidades de sobrevivir y de generar descendencia con sus genes, mejorando as´ı la especie con el paso de las generaciones. Los algoritmos evolutivos basan su funcionamiento en esta teor´ıa. Cuando John Henry Holland (1929 actualidad) los propuso por primera vez en los a˜ nos 70 del siglo pasado, la inteligencia artificial recibi´o un empuj´ on enorme, pues en ´estos se basan actualmente muchas t´ecnicas de aprendizaje, automatizaci´on, optimizaci´ on, planificaci´ on, predicci´ on, control, dise˜ no y an´alisis de numerosas aplicaciones. Los algoritmos gen´eticos est´ an incluidos en este tipo de algoritmos evolutivos, y se emplean sobre todo cuando las funciones que se desea optimizar son no derivables, o de derivabilidad muy compleja. Adem´as, estos algoritmos convergen hacia el m´ aximo o m´ınimo global, pero necesitar´an tantas m´as iteraciones cuantos m´ as m´ aximos o m´ınimos locales haya en la funci´on. Por otra parte, en el caso de que existan numerosos puntos cercanos al ´ optimo, el algoritmo gen´etico obtendr´a uno de ellos, y no necesariamente el optimo global. No obstante, la convergencia es por lo general bastante r´apida, y gracias a ellos se consiguen ´ resolver problemas del tipo NP-duro o que tienen un tiempo computacional de resoluci´on inviable. La manera de pensar en un algoritmo gen´etico es la siguiente:

6.8 - Aglomeraci´ on (clustering) con algoritmos gen´eticos

139

1. En primer lugar, tenemos un conjunto de individuos que consideraremos que forman una poblaci´ on (entendida como especie). 2. En cada iteraci´ on, se seleccionaran los individuos m´as fuertes para la fase de reproducci´on 3. En la fase de reproducci´ on, se generar´an individuos nuevos que sustituir´an a los anteriores a partir de los individuos m´ as fuertes. 4. En la misma fase de reproducci´ on, tras generar los nuevos individuos, se provocar´an algunas mutaciones en los mismos, con el fin de aleatorizar de alguna manera la evoluci´on. Esta mutaci´on puede tanto hacerlo m´ as fuerte como m´ as d´ebil, lo que crear´a nuevas diferencias en la siguiente generaci´ on de individuos. 5. Para las sucesivas generaciones, se repetir´a el proceso. Lo que se est´ a aplicando es, en definitiva, el mecanismo de evoluci´on de las especies de Darwin de manera simplificada y un tanto ‘‘a lo bruto’’, pues se escogen los individuos m´as fuertes de la poblaci´ on y se emplan como padres de la siguiente generaci´on, cosa que no siempre sucede en la naturaleza. La materializaci´ on de este algoritmo en nuestro problema se explicar´a a continuaci´on, as´ı como los resultados, las dificultades y las mejoras que se proponen para futuras investigaciones.

6.8.4.

Metodolog´ıa

El fin del an´ alisis de las caracteristicas, i.e. este cap´ıtulo, es el de reducir la dimensi´on del espacio de b´ usqueda. Las herramientas antes utilizadas han permitido seleccionar del orden de diez caracter´ısticas significativas sobre un total de treinta y nueve. Esta herramienta, el clustering, pretende realizar lo mismo, seleccionar las caracteristicas m´ as significativas de acuerdo con el criterio fundamental de la selecci´ on: que permita diferenciar a los conjuntos de pacientes. EL m´etodo consiste en, dados tres conjuntos de puntos, seleccionar solo algunas de las caracter´ısticas de los mismos, i.e. algunas coordenadas, tal vez por pares o por ternas, juntar todos los puntos en un solo conjunto de puntos y buscar, mediante el algoritmo de clustering, tres conjuntos lo m´as diferenciados posible entre s´ı. Tras la ejecuci´ on del algoritmo, se comparar´an los conjuntos encontrados con los conjuntos originales, y se calcular´ a el n´ umero de puntos que, perteneciendo originalmente a un conjunto, el algoritmo de agrupamiento ha asignado a otro conjunto. De esta manera, el resultado ser´a tanto mejor cuanto menor sea la cantidad de puntos mal clasificados y, por ende, mejor ser´a el par o la terna de caracter´ısticas seleccionadas. En la figura 6.29 se muestra una secuencia que representa el proceso de c´alculo de la bondad de un par de caracter´ısticas. Estas caracter´ısticas representan los ejes cartesianos sobre los cuales se han proyectado dos nubes de puntos, la roja y la verde. A priori conocemos cu´ales son los puntos pertenecientes a cada uno de los grupos (figura 6.29a), pero el ordenador no lo sabe. Al pasarle los datos de los grupos en una sola matriz, ´este los tiene en cuenta como un u ´nico grupo (figura 6.29b) sobre el cual deber´a aplicarse el algoritmo para detectar las aglomeraciones de puntos. Tras el algoritmo se habr´an obtenido dos grupos que, bajo el criterio que se haya programado, coincidir´an en mayor o menor medida con los grupos originales. Es el caso de la figura 6.29c, en la que la mayor´ıa de los puntos del grupo rojo se han considerado como rojos, al igual que con los verdes. Sin embargo, en la frontera hay algunos puntos rojos que se han tomado como si fueran verdes, debido a la superposici´on. Esta es la problem´atica con la que nos vamos a encontrar en este proyecto, pues las nubes de puntos de los enfermos de temblor esencial, los de Parkinson y los sanos est´ an, por lo general, muy superpuestas. Para seleccionar las mejores caracter´ısticas de entre todas las que tenemos (39), trabajaremos con parejas y con ternas de ellas, y ponderaremos estos subconjuntos de caracter´ısticas gracias al n´ umero de puntos mal clasificados. En la figura 6.29d se muestra c´omo: aquellos puntos mal clasificados respecto de los grupos originales se representan en rojo y tama˜ no mayor, mientras que los puntos bien clasificados se representan en azul y m´ as peque˜ no. La bondad de la pareja o la terna de caracter´ısticas ser´a inversamente proporcional al error cometido en el clustering.

6.8.5.

Implementaci´ on

El algoritmo gen´etico necesita de una serie de premisas bien definidas. En primer lugar, necesita la definici´ on de los individuos, que ser´ an la funci´on objetivo que se desea optimizar. En segundo lugar, hay que crear una poblaci´ on, que consiste en generar varios individuos de forma determinista o aleatoria sobre

140

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

(a) Grupos originales separados

(b) Grupos unidos en un solo conjunto

(c) Grupos tras el algoritmo de clustering

(d) Puntos mal catalogados

Figura 6.29: Secuencia de la metodolg´ıa del algoritmo de agrupamiento. En el caso de que el n´ umero de puntos mal catalogados (figura 6.29d) sea muy grande, las caracter´ısticas elegidas no permiten diferenciar bien los grupos el dominio de nuestra funci´ on objetivo. De esta manera, se habr´a construido la primera generaci´on de nuestra especie, ahora solo falta hacerla evolucionar. Notaci´ on En este apartado se emplear´ a abundante notaci´on, en aras de la distinci´on de los conceptos, y facilitar asi la comprensi´ on. Los siguientes conceptos son necesarios tenerlos bien definidos para implementar el algoritmo gen´etico: Punto: Hace referencia al vector cuyas componentes son las caracter´ısticas extra´ıdas de una trayectoria determinada. Supone un caso particular, una manifestaci´on concreta del comportamiento de un tipo de paciente en una situaci´ on determinada. Se puede representar en IRp , pero a la hora de trabajar con el algoritmo gen´etico se seleccionar´an tan solo dos o tres componentes, por lo que un punto ser´ a de la forma x = (x1 x2 ) ´o x = (x1 x2 x3 ) (6.22) y al conjunto de puntos lo denotaremos por X. Para referirnos de manera general a este concepto, consideraremos que tomamos vectores de m componentes, x ∈ IRp . Punto tipo: Si trabajamos con n puntos de una enfermedad concreta, esto es, de un grupo concreto, podemos considerar que ´estos pueden ser representados por un punto tipo. Esto significa tomar un valor central, como la media, con el que representar a la nube de puntos o, lo que es lo mismo, ser tomado como el valor medio de los pacientes de un tipo determinado considerando unas caracter´ısticas determinadas. Si consideramos que tenemos solo tres tipos de pacientes, al juntar las tres nubes de puntos obtendremos tres puntos tipo, el que representa a los puntos de temblor esencial,

6.8 - Aglomeraci´ on (clustering) con algoritmos gen´eticos

141

el de los de Parkinson y el punto tipo de los sanos, y lo notaremos por t. Al conjunto de los tres puntos tipo lo notaremos por T. Gen: Es la unidad fundamental de la que est´a compuesto un individuo. En biolog´ıa, es aquello que guarda una caracter´ıstica determinada de un ser vivo, y en el caso del algoritmo gen´etico es la unidad m´ınima de informaci´ on que podemos tener, esto es, una de las caracter´ısticas que definen a un paciente tipo t, esto es, sus componentes x1 , x2 , x3 , . . . , xp (de manera general, aunque como se ha indicado, trabajaremos en principio en IR2 o en IR3 ). Genotipo: Se trata del conjunto de caracter´ısticas que en biolog´ıa definen a un ser vivo. En nuestro caso ser´ a el conjunto de caracter´ısticas o componentes de un vector, {x1 , x2 , . . . , xp }. Individuo: Es el concepto m´ as importante de todos. Se trata de la unidad que se pretende optimizar bajo un criterio determinado, una funci´on objetivo, lo que en la teor´ıa de la evoluci´on de Darwin equivaldr´ıa a encontrar el individuo m´as fuerte a trav´es de las generaciones. En cada generaci´ on, los individuos sufrir´ an mutaciones (peque˜ nas variaciones en sus genes) que har´an evolucionar la poblaci´ on hacia otra generaci´ on m´as fuerte. Para nuestro caso particular, los individuos son un poco especiales: se componen de varios subindividuos, tantos como enfermedades se tengan, de forma que para el caso de considerar la terna Parkinson, temblor esencial y sanos, un individuo estar´ a compuesto por tres subindividuos, y su genotipo ser´a una matriz cuyas filas representan las enfermedades, y las columnas representan los genes de cada enfermedad. Esto, traducido a lo que se ha mostrado m´ as arriba corresponde a considerar los tres puntos tipo (subindividuos) como un solo conjunto (individuo), y representarlo en forma de matriz:    t x  1   11    T = t2  = x21    t3 x31

x12

x13

x22

x23

x32

x33

. . . , x1p



  . . . , x2p   . . . , x3p

(6.23)

Funci´ on objetivo: Puesto que queremos optimizar nuestros individuos, habr´a que hacerlo bajo alg´ un criterio. Este es el punto clave de todo el algoritmo: la elecci´on de una funci´on objetivo equivocada puede llevarnos a encontrar malas soluciones. Como veremos m´as adelante, el criterio aqu´ı escogido no permite trabajar c´ omodamente con nuestros datos, por lo que es necesario una redefinici´ on de esta funci´ on. Los individuos de nuestro algoritmo gen´etico se componen a su vez de tres subindividuos, a saber, los puntos tipo de los pacientes de Parkinson, temblor esencial y sanos. Estos puntos tipo representan una medida central de las nubes de puntos a las que est´an asociados, como por ejemplo el centro de masas, la media. La idea que en este proyecto se ha abordado consiste en buscar aglomeraciones en torno a distintos puntos del espacio que son considerados como centro de masas. De esta manera, por ejemplo en una generaci´ on del algoritmo, un individuo T compuesto a su vez por tres subindividuos, consistir´ a en tres puntos colocados en el espacio, tomados como centros de masas de los posibles grupos. Si notamos al conjunto de puntos X, que contiene los puntos de los tres conjuntos sin marcar, se considerar´ an puntos pertenecientes a un subindividuo tk aquellos cuya distancia al mismo sea menor que la distancia a los otros dos subindividuos. El fin es encontrar tres subconjuntos de X lo m´as parecidos a las agrupaciones originales. A estos subconjuntos los denominaremos Wk ⊂ X, y estar´an asociados a t mediante la funci´on de asociaci´ on α: Definici´ on 22. Funci´ on de asociaci´ on de un subconjunto a un subindividuo Sea el conjunto total X = {x1 , x2 , . . . , xn }. Se buscan tres subconjuntos W1 , W2 , W3 S de puntos S disjuntos (X = W1 W2 W3 ) asociados a cada uno de los subindividuos del algoritmo gen´etico t1 , t2 , t3 que representan a los puntos tipo de un grupo determinado. Esta asociaci´ on se aplica a cada punto de X mediante α, definida como α (xi ) =

argmin tk ={t1 ,t2 ,t3 }

{kxi − tk k}

es decir, se tomar´ an los puntos m´ as cercanos a cada uno de los puntos tipo, tk .

(6.24)

142

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

Con esta definici´ on de subconjunto de la nube total, se tratar´a de encontrar tres puntos tipo de manera que se minimice una funci´ on objetivo. Aqu´ı se ha considerado la funci´on objetivo como la suma de la distancia desde ´estos puntos tipo tk a los puntos del grupo que generan Wk . Esto significa que para cada subindividuo tomaremos una funci´on φ de la forma

φ (Wk ) = φk =

|Wk |

X i=1

kxi − tk k

xi ∈ Wk , ∀k

(6.25)

La funci´ on objetivo Φ ser´ a pues la minimizaci´on de la suma de las tres funciones parciales φk , esto es:

Φ (min) =

3 X

(6.26)

φk

k=1

Poblaci´ on: Se refiere a un grupo de individuos. Esta poblaci´on va a ir evolucionando iteraci´on a iteraci´ on, de manera que al final se tendr´a una generaci´on de superindividuos de entre los cuales se elegir´ a el m´ as fuerte (aquel que minimice la funci´on objetivo). De forma general, una poblaci´on se representar´ a mediante una matriz de H filas y K columnas, siendo H el n´ umero de individuos de que est´ a compuesta la poblaci´ on, y K el n´ umero de enfermedades que cada individuo contempla. En esta poblaci´ on P, un individuo se representa por Th , y como en nuestro caso particular K = 3: 

T1





t11

   T  t  2   21  .   .  .   .  .   . = P=     Th   th1     .   .  ..   ..    tH1 TH

t12 t22 .. . th2 .. . tH2

t13



 t23   ..   .    th3   ..  .   tH3

(6.27)

Como se puede observar, entre las ecuaciones 6.23 y 6.27 se dispone de una matriz tridimensional de H filas, K = 3 columnas y p p´ aginas con las que se representa matem´aticamente todas las combinaciones de genes de los que una poblaci´on dispone. Esto es: P ∈ MH×K×p Adicionalmente, para el tipo de algoritmo escogido (denominado elitista, v´ease la secci´on 6.8.5) es necesario crear una familia sobre la cual se elija el miembro m´as fuerte, y se clone para sustituir al resto de miembros de dicha familia para, despu´es, mutar todos menos uno de ellos. Tambi´en se incluyen otros elementos para el registro de la evoluci´ on como es el historial. Familia: Una familia representa un subconjunto F ⊂ P ∈ MH×K×p de F individuos de la poblaci´on total (|P| = H, |F| = F ). De entre los F miembros de la familia se tomar´a el m´as fuerte (aquel que minimice Φ), y se tomar´ a como referencia para la siguiente generaci´on (ver 6.8.5). Historial: Se crear´ a una variable de tipo matriz de tama˜ no G × 1,con g el n´ umero de la iteraci´on en la que se calcula la funci´ on η (Ψg ) = m´ın (Pgh ), ∀h ∈ {1, . . . , H}: Definici´ on 23. Se define la funci´ on o ´ptimo de la generaci´ on g, ηg , como el individuo Th de Pg , ∀h ∈ {1, . . . , H} de todos los individuos de la poblaci´ on de la generaci´ on g. η (Pg ) = ηg = m´ın (Pgh )

∀h ∈ {1, . . . , H}

siendo m´ın (Pg ) el individuo que minimiza la funci´ on objetivo definida por 6.26

(6.28)

6.8 - Aglomeraci´ on (clustering) con algoritmos gen´eticos

143

Por tanto, la matriz que define el historial es de la forma: 

η (P1 )





m´ın (P1g )



         η (P2 )   m´ın (P2 )      H= . = ..    ..   .     m´ın (PGh ) η (PG )

∀h ∈ {1, . . . , H}

(6.29)

Criterio de parada del algoritmo: El algoritmo gen´etico busca una soluci´on ´optima mediante aproximaciones a la misma en un espacio de tama˜ no infinito (IR2 o IR3 en nuestro caso). Esto significa que puede tardar un tiempo infinito en alcanzar la soluci´on ´optima, por lo que habr´a que tomar un criterio de parada del algoritmo de acuerdo a unas premisas. En nuestro caso hemos tomado los siguientes criterios de parada: Valor de la funci´ on objetivo sea finito N´ umero de iteraciones superior a un umbral prefijado. Este umbral se establece mediante la experiencia: tras haber visualizado varias simulaciones, el algoritmo converge normalmente en menos de veinte iteraciones. El valor de la funci´ on objetivo debe ser igual al de la iteraci´on anterior una vez alcanzado el umbral. De esta manera se evita que salga del bucle cuando el historial a´ un es decreciente. Mutaciones: Las mutaciones son los operadores que permiten modificar ligeramente una de las componentes de los puntos tipo que representan a una agrupaci´on determinada. Esto significa que se aplicar´ a un operador mutaci´ on sobre cada uno de los individuos de un individuo de la poblaci´ on. De manera general, en los algoritmos gen´eticos se realizan permutaciones en los genes (las componentes de los vectores en nuestro caso), o se corren los ´ındices (como si fuera un registro c´ıclico) o se intercambian dos valores de una ristra. Aqu´ı se han definido operadores de mutaci´on que permiten tomar una de las componentes (o varias) y darles un valor aleatorio. As´ı se obtendr´an nuevos puntos tipo generados a partir de los puntos tipo de la generaci´on anterior con algunas alteraciones en determinadas componentes. La elecci´on de las componentes tambi´en se realizar´a de manera aleatoria. Definici´ on 24. Operador de mutaci´ on Sea el subindividuo tk,g = (x1 x2 · · · xp ) de la generaci´ on g. Se define el operador de mutaci´ on µ, con el que se genera un subindividuo tk,g+1 en la iteraci´ on g + 1 del algoritmo como: µ (tk,g = (x1

x2

· · · xp

)) = tk,g+1 = x01

x02

· · · x0p



(6.30)

por el cual se escogen m componentes, m < p de manera aleatoria, y se les dan valores de forma aleatoria dentro de los l´ımites del conjunto X. Esto se realiza as´ı porque no tiene sentido buscar un valor central fuera de los l´ımites de un conjunto. El algoritmo gen´etico aqu´ı implementado se basa en el algoritmo gen´etico elitista, en el cual las generaciones siguientes se generan a partir de clones del individuo m´as fuerte de la iteraci´on anterior. En este trabajo se ha modificado ligeramente esta concepci´on, aplic´andose lo siguiente: 1. En primer lugar, se divide la poblaci´on en familias del mismo tama˜ no, F . 2. Seguidamente, se toma el individuo m´as fuerte de cada familia (el que minimiza la funci´ on objetivo dentro de la misma), y se realizan F − 1 clones de ´este, sustituyendo a los otros miembros de la familia. 3. A continuaci´ on se tomar´ an F − 1 individuos de la familia y se someter´an sus subindividuos a las mutaciones seg´ un lo descrito anteriormente. 4. Se obtiene as´ı un nuevo conjunto de familias que juntas componen la poblaci´on de la generaci´ on g + 1.

144

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

Asignaci´ on: A partir de la funci´ on de asignaci´on, en cada generaci´on se construir´a una matriz de asignaci´ on cuyas filas son el individuo h de la poblaci´on, sus columnas representan los puntos (n puntos) y los valores que se almacenan son los ´ındices de grupo. As´ı, si para la terna de enfermedades que representa un individuo Th el punto xi pertenece a la enfermedad etiquetada con el ´ındice k, con k ∈ {1, 2, 3} en nuestro caso (tres enfermedades), entonces el elemento (h, i) de la matriz de asignaci´ on A valdr´ a Ahi = k. b notada Adem´ as, para cada generaci´ on se escoger´a la matriz de asignaci´on del individuo ´optimo (P), b y se retendr´ por A a hasta la siguiente iteraci´on. En el caso de que en la siguiente iteraci´on se encuentre un individuo mejor que en la iteraci´on anterior, entonces se sustituir´a este vector fila con los ´ındices de asignaci´ on de los puntos para el nuevo individuo. El algoritmo gen´etico ser´ a, en definitiva, el descrito en 8 Algoritmo 8: Algoritmo gen´etico de clustering entrada : X, G, Pasamos la nube de puntos total y el l´ımite de iteraciones b salida : A, Devolvemos la asignaci´ on ´ optima encontrada P ← Inicializar poblacion con valores aleatorios dentro del dominio limitado por X for g ← 0 to G do A (P, X) Realizamos el clustering para cada individuo de la poblaci´ on h ← evaluarIndividuos i b P, b b b P, X, A) Φ( P), h ← mejorIndividuo(Φg (P), Calculamos valores ´ optimos y el ´ındice del individuo ´ optimo (b h) b Hg ← Φg (P) b ←Ab A h P ← mutaciones(P, A, X)

Mutamos a la poblaci´ on, generando una nueva

Un ejemplo de aplicaci´ on del algoritmo gen´etico es el de la secuencia de la figura 6.31. En este ejemplo se han considerado puntos artificiales, para mostrar el funcionamiento te´orico del algoritmo. Se han generado 102 puntos agrupados en tres grupos, sobre un espacio de dos caracter´ısticas. Ser´ıa equivalente a haber seleccionado dos caracter´ısticas de las 39 sobre las que se han definido nuestros puntos, y haber representado a los puntos de los tres tipos de paciente considerando solo estas componentes. En la figura 6.31a se muestran los tres grupos originales, representados por tres colores arbitrarios, rojo, verde y azul. En las tres siguientes subfiguras (6.31b, 6.30c y 6.30d) aparecen los grupos obtenidos con el mejor individuo de tres generaciones, a saber, la generaci´on 2, la 3 y la 4. Como se puede ver, el valor de la funci´ on objetivo en la primera de estas tres generaciones es considerablemente mayor que el de las dos siguientes, y va decreciendo, lo que implica que el algoritmo tiende hacia el m´ınimo. En la iteraci´on 2 el algoritmo se encuentra lejos de la agrupaci´ on original, pero a medida que llegan nuevas generaciones los grupos se encuentran correctamente (aunque sean representados con distinto color, los puntos agrupados acaban siendo los mismos). Como se puede comprobar en la figura 6.30e se obtienen exactamente las mismas agrupaciones que para el caso original. En la figura 6.30f se muestra el historial de la funci´on objetivo para el individuo ´ optimo de cada iteraci´on. Salta a la vista la r´apida convergencia, pues a partir de la iteraci´ on 6 el algoritmo no encuentra ninguna soluci´on mejor, y adem´as la soluci´on encontrada coincide con las agrupaciones originales. Nota 15: Anotaciones sobre el algoritmo gen´ etico En este trabajo se ha definido una funci´ on objetivo en base al concepto de distancia eucl´ıdea. Esto implica que los grupos generados tender´an a tener estructura esf´erica, pues la distancia eucl´ıdea simple (sin ponderar) es un concepto esf´erico. Por ello, las pruebas realizadas con los datos reales de los pacientes no han entregado buenos resultados ya que, como se ha podido comprobar en los m´etodos anteriores de an´ alisis multivariante, la estructura general de los datos es de tipo elipsoidal. No obstante, en la secci´ on 6.8.6 se exponen angunas pautas que se han trabajado a nivel te´ orico pero que, por falta de tiempo, no se han podido implementar. Estas pautas giran en torno al distancia de Mahalanobis, un tipo de distancia que tiene en cuenta la estructura de los datos, acerc´andose al concepto de nube elipsoidal en lugar de esf´erica.

145

Caracter´ıstica b

Caracter´ıstica b

6.8 - Aglomeraci´ on (clustering) con algoritmos gen´eticos

Caracter´ıstica a

Caracter´ıstica a

(b) Φ = 53,8784, g = 2

Caracter´ıstica b

Caracter´ıstica b

(a) Grupos originales separados

Caracter´ıstica a

Caracter´ıstica a

(c) Φ = 44,2999, g = 3

(d) Φ = 33,0379, g = 4

Caracter´ıstica b

Valor de Φ

50

40

30 Caracter´ıstica a

(e) Soluci´ on o ´ptima

0

5

10 15 Generaci´ on

20

25

(f ) Historial de la funci´ on objetivo Φ

Figura 6.30: Secuencia de una simulaci´ on del algoritmo gen´etico con datos sint´eticos. En 6.31a se muestran los grupos originales, y sucesivamente (no necesariamente en el mismo color que en los grupos originales) se muestran las distintas agrupaciones del individuo o ´ptimo de una generaci´ on determinada

Ponderaci´ on de las caracter´ısticas Tras el algoritmo gen´etico se obtienen tres agrupaciones de la nube de puntos total. Con estas agrupaciones se debe calcular la calidad de las caracter´ısticas sobre las que se han proyectado los puntos de IR39 . Esta calidad servir´ a para seleccionar aquellas caracter´ısticas que permitan diferenciar mejor los tres conjuntos de puntos y poder utilizarlas para realizar el diagn´ostico diferencial. El algoritmo gen´etico nos devuelve una matriz de asignaci´on de todos los puntos. Cada punto tiene una etiqueta referida a un conjunto determinado. El algoritmo est´a programado para buscar tres grupos, por lo que las etiquetas valdr´ an 1, 2, ´ o 3, pero no tiene por qu´e coincidir la etiqueta 1 con el temblor

146

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

esencial, la dos con el Parkinson y la 3 con los sanos. En este apartado se intenta encontrar el grupo original m´ as parecido a uno de los tres grupos devueltos por el algoritmo y, una vez se hayan encontrado las correspondencias m´ as probables, calcular el n´ umero de puntos mal etiquetados. Si notamos los tres grupos originales por E, P y S, y los tres grupos devueltos por W1 , W2 y W3 , se trata de hallar la correspondencia de los grupos del primer conjunto con los del segundo. En n´ umero de puntos en cada conjunto lo notaremos por su cardinal, por ejemplo |E|, y no tiene por qu´e coincidir el del grupo original con el de su correspondiente. Para hallar el conjunto correspondiente, puesto que contamos con tan solo tres grupos, podemos emplear la exploraci´ on bruta: contar cuantos elementos de E hay en cada uno de los Wk , y asignarle el que m´ as tenga. Lo mismo haremos con P y con S. Una vez tengamos las correspondencias, calculamos el n´ umero de puntos en Wk que no est´ an en su correspondiente original, ∀k, y sumamos estas cantidades. La calidad de la pareja o de la terna de caracteristicas ser´a la relaci´on entre el n´ umero de puntos mal asignados y el n´ umero total de puntos: Definici´ on 25. Calidad de las caracter´ısticas Sea C = {a, b} o C = {a, b, c} el conjunto de caracter´ısticas sobre las que se han proyectado los puntos extra´ıdos en la etapa de caracterizaci´ on. Sea Nk , ∀k = {1, 2, 3} el n´ umero de puntos que pertenecen tanto umero de puntos que s´ı est´ a en Wk pero no en el a Wk como a su correspondiente original. Sea N k el n´ correspondiente original. Se define la calidad Q de las caracter´ısticas en C como Q(C) =

X

k={1,2,3}

1 Nk |Wk |

(6.31)

y ser´ a tanto mayor cuanto menor sea el n´ umero de puntos mal clasificados N k . La calidad de unas caracter´ısticas C nos permite tener una medida de c´omo de separados10 est´an nuestros conjuntos considerando las proyecciones sobre C y, por lo tanto, como de buenas son estas caracter´ısticas para realizar el diagn´ ostico diferencial. Tras realizar combinaciones de todas las caracter´ısticas, nos quedaremos con aquellas que mayor calidad nos hayan proporcionado. Por los motivos que se explican en el siguiente apartado, los resultados no han sido concluyentes, debido principalmente a una estructura de datos muy dificil de separar en grupos de tipo esf´erico y disjuntos.

6.8.6.

Resultados y conclusiones

La funci´ on objetivo que se ha empleado en este trabajo para el algoritmo gen´etico est´a pensada para realizar el clustering con agrupaciones en forma de esfera o de hiperesfera. Al igual que sucede con otros algoritmos de aglomeraci´ on, el gran enemigo del algoritmo es la superposici´on de conjuntos. En este caso resulta extremadamente complicado distinguir en la intersecci´on cu´al es el conjunto al que pertenece un punto determinado. Como se ha mostrado en las secciones anteriores, sobre todo en el an´alisis multivariante mediante matrices de dispersi´ on bivariante, las proyecciones de los puntos sobre las parejas de caracter´ısticas no son ni mucho menos esferas. Tienden a estar correladas, y por ello tienden a ser elipses o elipsoides. Este algoritmo se ha programado para separar conjuntos esf´ericos, puesto que su funci´on objetivo utiliza la distancia eucl´ıdea, y por ello no funciona bien en la discriminaci´on de los conjuntos. Ejemplo de ello es la figura ??, en la que se muestra el resultado de aplicar el algoritmo gen´etico al conjunto de puntos resultante de unir los tres tipos de paciente. Como se ve, el resultado del clustering es muy malo, por lo que no tiene sentido emplear este m´etodo, al menos con la funci´ on objetivo aqu´ı definida. Sin embargo, puede ser interesante emplear una ponderaci´on de la distancia eucl´ıdea con la matriz de covarianzas de forma que la medida de la centralizaci´on se lleve a cabo teniendo en cuenta una nube de puntos elipsoidal o el´ıptica, en lugar de esf´erica. Esto supone redefinir la funci´on objetivo, siendo entonces Φ (min) =

3 X

φk

(6.32)

k=1 10 Separadas

y en nuestro caso tambi´ en lo esf´ ericas que son nuestras nubes de puntos proyectadas sobre C, pues se emplea la distancia eucl´ıdea como funci´ on objetivo.

6.9 - Generaci´ on de nuevos vectores

147 Soluci´ on ´ optima encontrada en el clustering

C.38

C.38

T.Esencial Parkinson Sanos

C.2

C.2

(a) Grupos originales

(b) Agrupaciones tras el algoritmo

Figura 6.31: Ejemplo de aplicaci´ on del algoritmo gen´etico sobre datos reales. Como se puede observar, los resultados no son buenos, debido a la estructura de los datos y a que el algoritmo est´ a pensado para otro tipo de estructura con φ (Wk ) = φk =

|Wk | q

X i=1

0

(xi − tk ) S−1 (xi − tk )

xi ∈ Wk , ∀k

(6.33)

y siendo S−1 la inversa de la matriz de covarianzas de los puntos asignados al punto tipo tk . Esto abre una nueva l´ınea de investigaci´on en el campo del aglomeramiento, empleando algoritmos gen´eticos y distancia Mahalanobis como medida de centralizaci´on de conjuntos no esf´ericos. En conclusi´ on, pese a haber realizado una descripci´on de un algoritmo gen´etico para resolver el problema del clustering y haberlo aplicado a simulaciones con datos sint´eticos, este algoritmo u ´nicamente funciona muy bien cuando los conjuntos est´an lo suficientemente disjuntos y se concentran alrededor de un punto en una nube de tipo esf´erico.

6.9. 6.9.1.

Generaci´ on de nuevos vectores Necesidad

Como se ha visto en la eliminaci´ on de at´ıpicos, el n´ umero de vectores que resultan de la limpieza de los conjuntos es muy peque˜ no. Esto va a dar lugar a ajustes de las distribuciones por sus funciones de densidad que no van a poder ser calculadas con una fidelidad suficiente, puesto que el conjunto sobre el cual basan sus par´ ametros es estad´ısticamente pobre. Veremos que, adem´ as de ser pocos, hay que separar estos conjuntos de vectores en dos, uno para considerarlo como hipot´eticamente conocido, a partir del cual se calcular´an las funciones de densidad que se tomar´ an como patr´ on, y otro para modelizarlo como pacientes cuyo diagn´ostico se desconoce y se quiere realizar en base a unos datos conocidos. A estos vectores los llamaremos vectores de entramiento (los primeros) y vectores de test. La proporci´ on que se debe tomar de cada uno se estableci´o en [L´opez, 2006], y result´o que el ratio 80 − 20 % es el optimo. Se considerar´ ´ a este resultado como correcto, y se utilizar´a en nuestra implementaci´on. Por tanto, a los pocos vectores que nos quedan, hay que eliminarles el 20 % para calcular las funciones de densidad que servir´ an como patr´ on de comparaci´on para los vectores de test. Si ya antes algunos de los conjuntos eran estad´ısticamente pobres para calcular los par´ametros de la distribuci´on, ahora lo son un 20 % m´ as.

6.9.2.

Proposiciones

La generaci´ on de vectores es un tema ya abordado por [Valencia, 2008], implementando la t´ecnica de P.S.O.En este trabajo no hemos tenido el tiempo de aplicar esta t´ecnica, pero se presentan a contincuaci´ on

148

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

una serie de ideas para que en trabajos futuros pueda trabajarse sobre la generaci´on de nuevos puntos de manera univariante. La idea es mantener los par´ ametros de las distribuciones intactos y a˜ nadir nuevos vectores al conjunto. Esto parece a priori intuitivo y sencillo, pero no es del todo as´ı, pues al introducir un nuevo elemento en un conjunto se var´ıan todos los par´ ametros. Por ejemplo, si tenemos una distribuci´on normal de media µ y desviaci´ on t´ıpica σ, al introducir un nuevo punto en el conjunto por la derecha de µ har´a aumentar su valor, y si adem´ as est´ a m´ as a la derecha que µ + σ, har´a aumentar la desviaci´on t´ıpica. Las ideas que a continuaci´ on se proponene intentan lidar con esto. Los per´ ametros de la poblaci´ on original no deben verse alterados en una proporci´on superior a un umbral δ. En el caso de que las distribuciones se puedan aproximar por normales, habr´a que generar los puntos de cuatro en cuatro, de la siguiente manera: 1. En primer lugar, se toma un valor r ∈ [0, 1]

2. A continuaci´ on se escala este valor al rango [µreal , µreal + σreal ], obteni´endose asi r1 . 3. Se calcular´ a r2 como el sim´etrico respecto de µreal de r1 : r2 = µreal − (r1 − µreal ) 4. Se calcular´ an otros dos puntos r3 y r4 tambi´en sim´etricos respecto de la media, pero esta vez fuera de la desviaci´ on t´ıpica, para compensar la variaci´on de la misma al introducir r1 y r2 . 5. Se calcular´ an µ(1) y σ (1) con los cuatro nuevos valores a˜ nadidos. 6. Se volver´ a a (1) y se repetir´ a el procedimiento hasta que la diferencia de los parametros no sea superior a δ En el caso de que las distribuciones se ajusten por otra funci´on de densidad, se transformar´a la distribuci´ on para obtener una distribuci´on normal y se aplicar´a el caso anterior. En este proyecto se ha implementado este algoritmo con valores sint´eticos para el caso de que la distribuci´ on sea normal. Como se puede ver en la figura 6.32, el error medio entre los par´ametros nuevos y los originales es inferior al 1 %. Sin embargo, la generaci´on de estos puntos ha deformado la forma de campana de los originales, aglomer´ andose los nuevos puntos alrededor de los l´ımites marcados por las desviaciones t´ıpicas (figura 6.33). Curvas de distribuci´ on real y sint´ etica (99.8684 % de parecido) 0,8 Distribuci´ on real (20 puntos) Distribuci´ on con sint´eticos (96 puntos) 0,6

0,4 µreal 0,2

0

µreal + σreal

µreal − σreal

0,4

0,6

0,8

1

1,2

1,4

1,6

1,8

2

Figura 6.32: Generaci´ on de nuevos puntos sint´eticos para una distribuci´ on normal. En verde los nuevos datos Evidentemente, los resultados no son v´ alidos, pero esto nos permite aproximarnos a una generaci´on de datos por la cual los par´ ametros de las distribuciones original y sint´etica son pr´acticamente id´enticos, aunque las distribuciones de las poblaciones sean distintas. No obstante, se ha intentado implementar este algoritmo con nuestros datos, para comprobar si los resultados pudieran valer. Efectivamente, se obtienen funciones de densidad iguales generadas con

6.10 - Selecci´ on del subespacio en base a los criterios anteriores

149

Histograma del nuevo conjunto

fabs

6

4

2

0

0,4

0,6

0,8

1

1,2

1,4

1,6

1,8

2

Figura 6.33: Histograma de la poblaci´ on original junto con los valores sint´eticos. Como se puede ver, el m´etodo deforma la campana de Gauss m´ as puntos, a costa de deformar distribuciones originales. El problema es que no nos interesan solo las funciones de densidad, sino tambi´en las distribuciones, pues a partir de ellas se realizar´a la separaci´ on en dos subconjuntos destinados al entrenamiento y al test. De esta manera, se ha dejado el c´ odigo preparado para que al llamar a la funci´on encargada de ampliar los conjuntos, anadirPuntosSinteticos(), se obtengan directamente las nuevas matrices extendidas. Hay que remarcar algo importante: la generaci´on aqu´ı propuesta no tiene en cuenta la estructura de los datos, solo se fija en una variable y genera puntos de acuerdo a esta carcter´ıstica. Esto lo realizar´ıa para todas las caracter´ısticas seleccionadas como interesantes, de forma completamente independiente. Por tanto, otro punto a a˜ nadir a la lista anterior ser´ıa Generar los puntos teniendo en cuenta la estructura de los datos. No obstante, estas ideas de generaci´ on de puntos siempre pueden sustituirse por un P.S.O. El fin de esta parte del trabajo es abrir una nueva l´ınea de investigaci´on para la generaci´on de nuevos vectores sobre los que apoyar de manera firme nuestros resultados.

6.10.

Selecci´ on del subespacio en base a los criterios anteriores

Hemos visto desde distintos puntos de vista que los vectores han sido sobrecaracterizados. Hemos podido comprobar que existen no pocos vectores at´ıpicos, y hemos estudiado c´omo tratar con ellos para obtener datos m´ as fiables en los que basar las siguientes etapas. Algunas de las caracter´ısticas que se han extra´ıdo ten´ıan su fundamento te´orico, pero los resultados no han sido lo que se esperaba. Tal es el caso de las caracter´ısticas relacionadas con el biespectro, que se esperaban esclarecedoras, pero ha resultado que no nos proporcionan gran informaci´on el conjunto. La reducci´ on del n´ umero de vectores debida a la eliminaci´on de los at´ıpicos genera la necesidad de reducir el tama˜ no del espacio sobre el que se trabaja. Por cada uno de los m´etodos de an´alsis de los datos hemos obtenido un conjunto de caracter´ısticas que nos permit´ıan visualizarlos desde diferentes puntos de vista, para hacernos una idea de su estructura y de c´omo puede atacarse el problema de su utilizaci´ on para diagnosticar. De forma general, se ha obtenido que las caracter´ısticas m´as interesantes eran casi siempre las mismas, lo que nos lleva a pensar que este conjunto es el ´optimo para poder trabajar en el diagn´ ostico. No obstante, el hecho de que algunas caracter´ısticas no resulten tan buenas llama la atenci´on. Es probable que con una mejor etapa de pretratamiento de los datos en el filtrado de las trayectorias se consigan detectar mejor los picos del temblor en el espectro, permitiendo eliminar las concentraciones en torno a la frecuencia de corte del filtro, y llevando los vectores a sus lugares correspondientes de acuerdo u ´nicamente a la componente temblorosa de las trayectorias. La selecci´ on de las caracter´ısticas con las que se va a dar juego al algoritmo de diagn´ostico por l´ ogica borrosa es el mostrado en la tabla 6.2, pues en esta se re´ unen tanto las interesantes para los an´ alisis multivariante y A.C.P., como las espec´ıficas del an´alisis de las distribuciones de cada una de

150

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

las caracter´ısticas. Adem´ as, puesto que el algoritmo de ponderaci´on de las funciones de densidad para tomar los conjuntos borrosos (ver siguiente cap´ıtulo) se encarga de restar importancia a las caracter´ısticas que crean conjuntos muy superpuestos, la utilizaci´on de alguna que otra caracter´ıstica m´as no deber´ıa tener importancia. No obstante, como se ver´a en el siguiente cap´ıtulo, se jugar´a combinando distintas caracter´ısticas de este conjunto para comprobar los errores cometidos en el diagn´ostico. Por tanto, queda reducida, entre la eliminaci´on de los vectores at´ıpicos y la selecci´on de las caracter´ısticas, la matriz de datos y, por tanto:

6.11.

b ∈ Mr×p −→ X ∈ Mn×m X

(6.34)

Separaci´ on de los vectores en vectores de entrenamiento y vectores de test

En esta parte del trabajo nos encargaremos de definir el mecanismo de separaci´on de los vectores en vectores de test (V.T.) y vectores de entrenamiento (V.E.). El objetivo est´a claro: simular pacientes desconocidos que se desea diagnosticar.

6.11.1.

Necesidad

Los datos han sido obtenidos de pacientes de los que se conoce su diagn´ostico. Simplemente han sido recogidos para estudiar cu´ ales son las caracter´ısticas m´as importantes de los mismos, y poder diagnosticar casos desconocidos mediante un m´etodo objetivo, independiente del veredicto del m´edico especialista. En ning´ un caso, como se precis´ o en el cap´ıtulo 1, este diagn´ostico pretende ser sustitutivo de la labor del m´edico, sino una herramienta con la que complementar sus conclusiones acerca de la enfermedad del paciente. Puesto que todos los pacientes son conocidos, la idea es simular que unos pocos de ellos son nuevos pacientes, mientras que la otra parte del conjunto se utilizar´a para comparar a los nuevos con ellos. De hecho, no se trabaja con los pacientes en s´ı, sino con los vectores de caracter´ısticas calculados a partir de las trayectorias recogidas en cada patr´ on realizado por los pacientes. T´ecnicamente nos encontramos en el caso de clasificaci´ on de datos multivariantes.

6.11.2.

Criterio de separaci´ on

En el trabajo [L´ opez, 2006] se especific´ o que la mejor proporci´on para los vectores de test y los vectores de entrenamento es 20 − 80 %, respectivamente. La separaci´on se realizar´a para cada una de las matrices que representan un subconjunto, una vez que se han seleccionado las caracter´ısticas (las columnas) de la b Por tanto, nos encontramos con una matriz X ∈ Mn×m de datos limpios y en un espacio IRm matriz X. optimo para trabajar. ´

Definici´ on 26. Matriz X compuesta por dos submatrices Xe y Xt Sea X ∈ Mn×m la matriz de datos cuyas filas son los vectores de datos y cuyas columnas son las variables observadas sobre cada uno de estos vectores. Definimos a esta matriz como compuesta por dos submatrices Xe y Xt de manera que Xe ∈ Mne ×m y Xt ∈ Mnt ×m , con n = ne + nt . Estas dos submatrices est´ an compuestas por vectores no repetidos de X, tomados en orden aleatorio. e t Definici´ on  27. Selecci´ on de  los vectores de X que forman X y X Sea se = 1 2 · · · n un vector de n enteros ordenados. Sea s el vector cuyos elementos se han tomado de manera aleatoria de se, es decir, es un conjunto de n´ umeros de 1 a n permutados aleatoriamente. Si empleamos este vector s como ´ındices de los elementos de X, y denotamos por π a la proporci´ on de vectores de entrenamiento respecto del n´ umero total de vectores, definiremos Xe como

Xe , Xij , con j = {1, . . . , m} e i = sk , ∀k ∈ {1, . . . , [nπ]}

(6.35)

Xt , Xij , con j = {1, . . . , m} e i = sk , ∀k ∈ {[nπ] + 1, . . . , n}

(6.36)

donde [nπ] denota la parte entera de nπ. Por su parte, Xt se definir´ a como

6.12 - Generaci´ on de una tabla patr´ on con los par´ametros de las distribuciones

151

Como se ha indicado, π = 0,8 Gracias a esta definici´ on podemos implementar un algoritmo iterativo en el que variar aleatoriamente el vector s y poder acceder a distintos vectores de X. De esta manera, se puede tomar en cada iteraci´ on un subconjunto distinto con el que calcular las distribuciones modelo para luego comparar los vectores de test y diagnosticar. En definitiva, esto nos permite generar distintos pacientes desconocidos a partir de los datos conocidos, y adem´ as aleatorizar los resultados.

6.11.3.

Almacenamiento en una base de datos. Estructura de la misma

La estructura de la base de datos separados en dos subconjuntos de entrenamiento y de test tiene la misma estructura que la base de datos de caracter´ısticas. La diferencia aqu´ı es que a nivel del almacenamiento de las matrices, en la estructura se crea un campo m´as en el que almacenar los vectores de test. La figura 6.34 ilustra esto.

caracteristicas

struct

Tipo de patrón/ patrón

char

Matriz de características entrenamiento

Xe

matrix

Matriz de características test

matrix

Xt

Figura 6.34: Estructura de la base de datos de las matrices de entrenamiento y de test de los pacientes de Parkinson

6.12.

Generaci´ on de una tabla patr´ on con los par´ ametros de las distribuciones

La tabla patr´ on a la que en ocasiones se ha hecho referencia es en realidad la manera de denominar a las funciones de densidad que modelizan las observaciones de nuestros conjuntos de datos. As´ı, para el caso de los vectores obtenidos de los patrones de tipo est´atico se habr´an obtenido los valores de cada uno de ellos para las doce caracter´ısticas de la tabla 6.2, y se habr´an calculado los par´ametros de la funci´ on de densidad de acuerdo a minimizar el error de los tests χ2 de Pearson entre los tres grupos de pacientes. Los mismo para las caracter´ısticas de los vectores cin´eticos, los din´amicos, el PT1, . . . En un principio estos resultados deber´ıan valer para caracterizar futuros pacientes, pero en nuestro caso no tenemos el n´ umero de vectores suficientes en cada caso para avalar certeza de estos par´ametros. Adem´ as, nosotros dividiremos los conjuntos y recalcularemos las funciones de densidad con los vectores de entrenamiento, lo cual cambiar´ıa los par´ametros de las distribuciones, al ser escogidos los vectores de forma aleatoria sobre el total. Por tanto, el concepto de tabla patr´ on queda referido a la visualizaci´on de las funciones de densidad de las figuras del anexo D, as´ı como de las figuras 6.27a, 6.27b y 6.27c para los resultados sin at´ıpicos de los conjuntos de tipos de patr´ on.

152

Cap´ıtulo 6 - An´ alisis de las caracter´ısticas

Cap´ıtulo

•••

7

´ CLASIFICACION La virtud es una disposici´ on voluntaria adquirida, que consiste en un t´ermino medio entre dos extremos malos, el uno por exceso y el otro por defecto Arist´ oteles de Estagira (384 a. C. - 322 a. C.),

Resumen Se presentan aqu´ı las t´ecnicas empleadas para obtener la clasificaci´on de los vectores de test a partir de los datos estimados con los vectores de entrenamiento, empleando l´ ogica borrosa y las distribuciones obtenidas seg´ un los criterios del cap´ıtulo anterior. Asimismo se exponen los resultados y sus respectivos comentarios.

7.1.

Introducci´ on

Hasta ahora se ha intentado determinar si un paciente est´a sano o enfermo, o si tiene Parkinson o temblor esencial. El concepto que se introduce aqu´ı es el termino medio, la posibilidad de pertenecer en parte a un conjunto de pacientes y en parte a otro, debido a que las manifestaciones del temblor no son del todo concluyentes. En la concepci´ on cl´ asica de la clasificaci´on pensamos que una persona puede ser alta o baja, sin poder ser una persona de altura media. De la misma manera hablamos de una puerta cerrada o abierta o de un vaso lleno o vac´ıo (dejando de lado el optimismo que se tenga). Esta ‘‘l´ogica’’ del todo o nada funciona cuando los conjuntos est´ an perfectamente definidos, es decir, cuando no cabe la posibilidad de que una mesa sea gris, sino que solo puede ser o blanca o negra. Sin embargo, puede dar lugar a errores o subjetividades cuando se trata de decir si alguien es alto o bajo, atendiendo u ´nicamente a su altura (depende de la sociedad a la que pertenezca esta persona, al conjunto del que forma parte). Por tanto, la l´ ogica de los conjuntos con l´ımites poco definidos, l´ımites borrosos, resulta la m´as conveniente cuando se trata de clasificar un individuo entre varios conjuntos de fronteras difusas. La l´ ogica borrosa puede ser considerada como una generalizaci´on de la l´ogica clasica, la l´ogica del todo o nada. Introducida por Zadeh en la d´ecada de 1960, trata de modelizar aquellos problemas en los que deben utilizarse datos imprecisos, o en los que las reglas de decisi´on se formulan de acuerdo a categor´ıas difusas [Zadeh, 1988].

7.2.

L´ ogica borrosa

La idea principal sobre el concepto de l´ogica borrosa es que, al contrario que el sistema l´ogico cl´ asico, su objetivo es poder modelizar la forma con la que el razonamiento humano es capaz de tomar decisiones racionales en ambientes de incertitud. Esto, que en principio puede parecer enrevesado, tiene en cuenta que en general nos encontramos en situaciones en las que no podemos tomar una decisi´on con firmeza, pero sin embargo la tomamos porque consideramos que el campo de decisi´on est´a lo suficientemente claro

153

154

Cap´ıtulo 7 - Clasificaci´ on

como para avalar dicha elecci´ on. En definitiva, conseguimos determinar que alguien es alto o bajo aun sin conocer con exactitud los l´ımites de la clasificaci´on como ‘‘persona alta’’ o ‘‘persona baja’’. En la l´ ogica del todo–nada una variable puede tener dos valores (por ejemplo cero o uno, blanco o negro, o vivo o muerto). Esta l´ ogica est´ a bi-evaluada, pues el conjunto sobre el cual una variable puede ser evaluada, si lo codificamos en binario, es Ω = {0, 1}. Si este concepto lo generalizamos un poco m´as, nos encontraremos en la l´ogica multi-evaluada, en la cual una variable puede tomar valores de entre un conjunto de n elementos, Ω = {0, . . . , n}, por ejemplo una persona puede ser rubia, morena, casta˜ na o pelirroja (n = 4). La l´ ogica borrosa puede tomarse como una extensi´on de la l´ogica multi-evaluada [Zadeh, 1988], entrando en juego la teor´ıa de probabilidades y la l´ogica probabil´ıstica. As´ı, para la l´ogica borrosa los conjuntos definidos por un concepto como alto, mediano o bajo son funciones de, en este caso concreto, la altura, y la evaluaci´ on de una variable sobre estos conjuntos depende del ‘‘grado de pertenencia’’ a cada uno de los conjuntos. Por ejemplo, una persona que mida h = 1,75m puede ser considerada como alta, pues el grado de pertenencia a las peronas altas, calculado como la evaluaci´on de h sobre el conjunto Alto, es mayor que el grado de pertenencia al conjunto de las personas medianas o a las personas bajas, como ilustra la figura 7.1, por lo que se la clasificar´a como persona alta, al haber una diferencia considerable entre la pertenencia a las personas medianas y a las altas. Bajo Mediano Alto

grado de pertenencia

1

p(h) = 0.67 0,5 p(h) = 0.34

0 1,2

1,3

1,4

1,5

1,6

1,7

1,8

1,9

2

2,1

altura (m)

Figura 7.1: Ejemplo de clasificaci´ on de una persona seg´ un su altura a uno de los tres conjuntos borrosos Bajo, Mediano y Alto. En la l´ ogica borrosa se aceptan los cuantificadores, que permiten dar una idea num´erica del grado de pertenencia ‘‘mucho’’, ‘‘poco’’, ‘‘bastante’’ o ‘‘muy poco’’, por ejemplo. Estos cuantificadores se corresponden con el lugar en la curva que modela el conjunto borroso que da el grado de pertenencia al mismo. Existen varias posibilidades de modelar un conjunto borroso. En el ejemplo anterior, las curvas eran trapezoides, pero tambi´en pueden modelarse por tri´angulos o campanas de Gauss, dependiendo de la forma del conjunto desde un punto de vista probabil´ıstico.

7.2.1.

Conjuntos borrosos

En los conjuntos cl´ asicos, la transici´ on de un elemento entre perteneciente o no perteneciente a un conjunto es n´ıtida. Para un elemento perteneciente a un universo formado por conjuntos borrosos esta transici´ on puede ser gradual, con varios niveles de pertenencia, debido a la ambig¨ uedad de las fronteras de estos conjuntos. Si suponemos que una variable, por ejemplo la altura, puede tomar valores dentro de un universo X, y que dentro de este universo se pueden definir varios conjuntos A, B, . . . correspondientes a los distintos grupos de personas que hay (bajos, medianos, medianos-altos, altos, gigantes, etc.), la notaci´on usual para referirse a un conjunto borroso es la siguiente[Ross, 2009, Rojas, 1996]: Definici´ on 28. Conjunto borroso Sea X un conjunto gen´erico que representa un universo. Se define A como la funci´ on real µA : X → [0, 1] que denota la funci´ on de pertenencia de A y define el conjunto borroso A ∈ X. Este es el conjunto de los pares (x, µA (x)) con x ∈ X.

7.2 - L´ ogica borrosa

155

El conjunto de soporte de A son los x ∈ X en los que se verifica que (x, µA (a)) ∈ A y µA > 0, lo denotaremos por {a1 , a2 , . . . , am }, y se describe de la siguiente manera: A=

µA (x1 ) µA (x2 ) µA (xn ) X µA (xi ) + + ··· + = x1 x2 xn xi i

(7.1)

En la que la notaci´ on de fracci´ on quiere decir expresa la relaci´on entre la evaluaci´on del elemento xi sobre el conjunto borroso A y el propio elemento, y el s´ımbolo + expresa la uni´on entre estos elementos del conjunto.

7.2.2.

Clasificaci´ on por l´ ogica borrosa

Tal y como se remarca en [Zadeh, 1988], ‘‘La l´ ogica borrosa -la l´ ogica oculta bajo lo aproximado [. . . ], est´ a encontrando aplicaciones desde procesos de control hasta diagn´ ostico m´edico 1 ’’, un clasificador borroso puede ser una herramienta conveniente en el proceso de diagn´ostico. Adem´ as, en el ´ ambito m´edico el m´etodo de clasificaci´on deber´ıa ser algo comprensible por el usuario (el especialista m´edico en principio), y los clasificadores difusos permiten definir las leyes de decisi´ on a partir de reglas ling¨ u´ısticas f´ aciles de interpretar. Esto es importante desde el punto de vista de que el clasificador no debe ser una caja negra que le da un resultado al m´edico, pues debe tratarse de una herramienta complementaria a su labor y, por lo tanto, debe poder comprender -hasta cierto punto- c´ omo ha sido realizada la sugerencia de diagn´ostico. El resultado ideal de un clasificador por l´ogica borrosa es que un elemento pertenezca claramente a una u ´nica clase, esto es, que el grado de pertenencia a un conjunto sea sustancialmente mayor que el grado de pertenencia a otros conjuntos. Sin embargo, esto no siempre es posible debido a la superposici´on de las fronteras entre las diferentes clases, por lo que la decisi´ on no ser´ a tan sencilla. Adem´ as, en muchos casos no se comprueba la pertenencia a una clase determinada u ´nicamente a partir de la observaci´ on de un universo de posibilidades (una variable), sino que se tienen en cuenta varias variables sobre las que se comprueba la pertenencia de un individuo a un conjunto sobre cada una de las variables para, despu´es, hacer una valoraci´on global a partir de los resultados parciales. En la figura 7.2 se ilustra esto. En ella se muestra que existen tres conjuntos conocidos A, B y C, y que se han observado a partir de dos variables. Se desea clasificar el punto x buscando a cual de los tres conjuntos tiene m´as probabilidad de pertenecer. Como vemos, si observamos solo la variable 1, la probabilidad de pertenecer al conjunto B es pr´ acticamente igual que la probabilidad de pertenecer al conjunto C, pues la situaci´on relativa de la proyecci´ on de x respecto de las proyecciones de los puntos de los conjuntos A y B resulta completamente ambigua, ya que ambas proyecciones quedan pr´acticamente superpuestas. Sin embargo, si observamos la variable 2, se puede ver que el individuo x tiene una probabilidad bastante grande de pertenecer al conjunto B (se encuentra en la m´ axima probabilidad), mientras que al observar la pertenencia al conjunto C encontramos que la probabilidad es nula. De hecho, ahora tiene m´as probabilidades de pertenecer al conjunto A que al conjunto C. Esto nos lleva a la siguiente reflexi´ on: ¿qu´e debo considerar como v´alido, el resultado de observar las proyecciones sobre la variable 1 o sobre la variable 2?. Esta es la pregunta que se ha intentado resolver en este proyecto, y haciendo uso de las relaciones entre conjuntos borrosos se propone una soluci´on. La idea es que, dado que la proyecci´on sobre la variable 1 no aporta una buena informaci´on sobre si los conjuntos est´ an o no separados, debido a la superposici´on de las funciones de densidad del conjunto B y C, ´esta debe ser considerada como menos importante para el veredicto final, mientras que el resultado de observar la variable 2 s´ı tiene m´ as importancia, ya que aqu´ı s´ı est´a claro que ambas distribuciones est´ an separadas, por lo que la clasificaci´on del individuo x deber´a tomar m´as en cuenta el diagn´ostico de la variable 2. Por lo tanto, se debe encontrar la manera de ponderar las variables de acuerdo al grado de confianza que sus resultados nos puedan entregar, y esta ponderaci´on viene de la mano del concepto de intersecci´ on entre dos conjuntos borrosos, pues ´esta se refiere en definitiva a la superposici´on de las funciones de pertenencia que estamos tomando por funciones de densidad. 1 Fuzzy

logic - the logic underlying approximate, [. . . ] - is finding applications that range from process control to medical diagnosis. (Nota de la traducci´ on)

156

Cap´ıtulo 7 - Clasificaci´ on

variable 2

x

Conjunto A Conjunto B Conjunto C variable 1

Figura 7.2: Ejemplo de clasificaci´ on de un punto entre varios conjuntos por l´ ogica borrosa. Definici´ on 29. Operaciones con conjuntos borrosos Sean tres conjuntos borrosos A, B y C en un universo X. Para un determinado individuo x de este universo, se definen las operaciones de uni´ on, intersecci´ on y complemento para A, B o C sobre X como µA∪B (x) = m´ax {µA (x), µB (X)}

(7.2)

µA∩B (x) = m´ın {µA (x), µB (X)}

(7.3)

µA¯ (x) = 1 − µA (x)

(7.4)

donde los s´ımbolos ∪, ∩ y ¯ denotan la uni´ on, la intersecci´ on y el complemento, respectivamente. Estas definiciones se refieren a las operaciones entre dos conjuntos. En nuestro caso, ser´a interesante poder realizar operaciones entre tres conjuntos borrosos (enfermo de temblor esencial, Parkinson o paciente sano) para darnos una idea de la superposici´on real entre ellos, no ya la propia intersecci´on. En las figuras 7.3a, 7.3b y 7.3c se muestra un ejemplo de c´omo se realiza la uni´on entre dos conjuntos borrosos A y B. ¯ µi , con i = {A, A}

A B

0,3

0,1 −5

0

5 X

(a) Uni´ on de los conjuntos borrosos A y B

0,4 A B

0,3

0,2

0

¯ µi , con i = {A, A}

0,4

0,4

10

A A¯

0,3

1 0,9

0,2

0,2

0,8

0,1

0,1

0,7

0

−5

0

5 X

(b) Intersecci´ on de los conjuntos borrosos A y B

10

0

−5

0

5

0,6 10

X

(c) Complemento del conjunto borroso A

Figura 7.3: Uni´ on, intersecci´ on y complemento de conjuntos borrosos

7.2 - L´ ogica borrosa

157

Para poder obtener una idea de lo anterior, en la figura 7.4a se muestran los resultados de la uni´ on y de la intersecci´ on entre tres conjuntos a partir de la generalizaci´on de 7.4. Como se comprueba, este concepto de intersecci´ on no da una buena idea del solape entre los conjuntos. Sin embargo, en la figura 7.4 s´ı que obtenemos lo que deseamos, que es la proporci´on de ´area bajo las funciones de densidad (de pertenencia) de los conjuntos borrosos que es com´ un a al menos dos de ellos. De esta manera se puede calcular la proporci´ on entre la uni´ on y este solape entre los conjuntos para obtener una medida de la fidelidad en la clasificaci´ on que nos puede dar la observaci´on del universo X sobre el que se definen los conjuntos A, B y C. 0,4 0,3

0,4

µi , con i = {A, B, C}

µi , con i = {A, B, C}

A B C

A B C

0,3

0,2

0,2

0,1 0 −6

0,1

−4

−2

0

2 X

4

6

8

10

(a) Intersecci´ on de los conjuntos borrosos A, B y C

0 −6

−4

−2

0

2 X

4

6

8

10

(b) Solape entre los conjuntos borrosos A, B y C

Figura 7.4: Diferencia entre intersecci´ on entre tres conjuntos borrosos y el solape entre los mismos Dada la necesidad de emplear el concepto de solape para ponderar las variables con el fin de obtener la mejor informaci´ on posible de los distintos conjuntos borrosos, se define el solape entre tres conjuntos borrosos A, B y C como sigue. Definici´ on 30. Solape entre tres conjuntos borrosos Sean los conjuntos A, B y C definidos por las leyes de pertenencia µA , µB y µC , respectivamente. Sea x un individuo del universo X al que pertenecen los conjuntos borrosos. Se define el solape entre estos tres conjuntos como: Ω = m´ax {µA , µB , µC }

(7.5)

A,B,C

µs(A,B,C) (x) = µ(A∪B∪C)∩Ω Es decir, de entre todos los conjuntos, se escoge el que tiene grado de pertenencia m´ aximo para un x determinado y se excluye del c´ alculo del m´ aximo. Es decir, tomamos el segundo m´ aximo. Otra forma de verlo es a partir de un diagrama de Venn (figura 7.5). Si A, B y C denotan los conjuntos borrosos, el solape ser´ a la zona com´ un total a estos tres conjuntos. Gracias a esta definici´ on, se podr´ a calcular el coeficiente de solape entre los conjuntos borrosos de un universo X como la relaci´ on entre la uni´ on y el solape:

(7.6) A

B

C

Figura 7.5: Solape entre A, B y C

Definici´ on 31. Coeficiente de solape Sean A, B y C tres conjuntos borrosos sobre X. Se define el coeficiente de solape entre estos tres conjuntos como una funci´ on de la uni´ on y del solape de las tres leyes de pertenencia Cs = f µs(A,B,C) , µA∪B∪C



(7.7)

En lo que sigue, hay que aclarar que lo que hasta ahora hemos denominado ‘‘universo X’’ se corresponde con cada una de las columnas de las matrices de datos, cj . Si recordamos lo visto en el cap´ıtulo anterior, en el an´ alisis de los datos por las distribuciones de cada caracter´ıstica trabaj´abamos fijando una caracter´ıstica y estudiando la superposici´on de las funciones de densidad de los vectores generados por

158

Cap´ıtulo 7 - Clasificaci´ on

los pacientes de temblor esencial, Parkinson y los sanos. Pues bien, estos tres grupos de vectores, estas tres funciones de densidad, son las que se van a tomar como leyes de pertenencia a un conjunto borroso, que denotaremos por E, P y S (temblor esencial, Parkinson y sanos, respectivamente), y a sus funciones de densidad tratadas como leyes de pertenencia µE , µP y µS . Con estas definiciones, y con el concepto de clasificaci´on por l´ogica borrosa interiorizado, en la siguiente secci´ on describiremos la metodolog´ıa empleada en este proyecto.

7.3. 7.3.1.

Clasificaci´ on seg´ un las distribuciones Introducci´ on

Como se ha visto a lo largo del documento, se han seleccionado ciertas caracter´ısticas con las que se pretende realizar el diagn´ ostico. La matriz de datos X ha sido dividida en dos submatrices Xe y Xt destinadas a realizar lo que se ha denominado el entrenamiento y el test, respectivamente. La aplicaci´ on de la l´ ogica borrosa en este trabajo pretende emplear la t´ecnica de ‘‘clasificaci´on de datos por l´ ogica de difusa’’. Ya hay algunos trabajos que tratan sobre ello, como [Nauck and Kruse, 1999], en el que se muestra c´ omo implementar un algoritmo de aprendizaje neuronal para un clasificador borroso. Nosotros en este proyecto trabajaremos con tres conjuntos borrosos, a saber, temblor esencial, Parkinson o pacientes sanos. La idea es que para clasificar un vector haya que mirar sus componentes una por una. Para cada componente se realizar´ a la valoraci´on, en base a las funciones de densidad obtenidas a partir de los vectores de entrenamiento, de c´omo de temblor esencial, Parkinson o sano es ese vector. B´ asicamente se emplear´ an las funciones de densidad como leyes de pertenencia a los conjuntos borrosos sobre los que realizar las valoraciones para cada componente. Se calcular´a el porcentaje de pertenencia a cada una de las enfermedades por cada componente y despu´es se calcular´a la probabilidad global de pertenencia del vector a cada uno de los conjuntos. Recordando uno de los argumentos que se dio para seleccionar las caracter´ısticas interesantes de entre el total de caracter´ısticas, cuanto menos solapados est´en las funciones de densidad mayor ser´a la probabilidad de realizar un diagn´ ostico claro. Pues bien, la idea es ponderar cada una de las caracter´ısticas para que al calcular la probabilidad total de pertenencia a un tipo de pacientes determinado se tengan en mayor consideraci´ on las probabilidades parciales obtenidas a partir de conjuntos borrosos separados. La ponderaci´ on de estas caracter´ısticas se realizar´a en base al porcentaje de solapamiento de los conjuntos borrosos. Finalmente se dar´ a el veredicto acerca del diagn´ostico tras haber comparado las probabilidades parciales, y se comprobar´ a si, en efecto, el diagn´ostico ha sido v´alido, puesto que a priori se conoce el tipo de paciente que ha generado este vector.

7.3.2.

Algoritmo aplicado para la clasificaci´ on por l´ ogica borrosa

Como se ha venido haciendo hasta ahora, nos serviremos de la figura 7.6 para explicar el procedimiento seguido en la etapa de clasificaci´ on de los vectores. b ordenadas por patrones Contamos con las bases de datos que guardan las matrices de caracter´ısticas, X o por tipo de patr´ on. Adem´ as, se cuenta ya con un vector que indica cuales son las caracter´ısticas b con las que se va a trabajar. seleccionadas, es decir, cu´ ales son las columnas de X En primer lugar, se realizar´ a una limpieza general de las bases de datos, de acuerdo a los criterios expuestos en el cap´ıtulo anterior sobre la kurtosis y el procedimiento manual. b a las matrices X, se procede a entrar en un bucle de diagn´ostico Una vez se pa pasado de las matrices X en el que se cambian de forma aleatoria los vectores de test de entre todos los vectores de X. La primera etapa dentro de este bucle es la de separar la matriz X en dos matrices Xe y Xt , cuyas filas son los vectores de entrenamiento y de test. Esta separaci´on se realiza de manera aleatoria como se vio en la secci´ on 6.11. Tras la separaci´ on, se reservan los vectores de test, y se ajustan las distribuciones de los vectores de entrenamiento. De esta manera, se construyen las leyes de pertenencia que a continuaci´on se emplear´an para tomar las decisiones por l´ ogica borrosa. De esta etapa salen las definiciones de las µjE , µjP y µjS , con j ∈ {1, . . . m}. Calculados los conjuntos borrosos, entran en juego los vectores de test en calidad de individuos que tienen que ser clasificados. Las reglas de clasificaci´on se componen de tres partes:

7.3 - Clasificaci´ on seg´ un las distribuciones

159

matricesCaracteristicas p

matricesCaracteristicas e

An´alisis de las caracteristicas

matricesCaracteristicas s

Limpieza de bases de datos

Separar en VT y VE

VE

NO

VT

Calcular distribuciones

Calcular error

Fin simulaciones

SI Resultados del diagn´ostico

Figura 7.6: Diagrama de flujo de la clasificaci´ on y diagn´ ostico

Ponderaci´ on de las caracter´ısticas por medio de la definici´on de porcentaje de solape entre conjuntos borrosos (7.7). C´ alculo de las probabilidades parciales de pertenencia a E, P y S a partir de la clasificaci´on parcial por cada caracter´ıstica.

160

Cap´ıtulo 7 - Clasificaci´ on

C´ alculo de la probabilidad total de pertenencia a cada uno de los conjuntos borrosos calculada en funci´ on de las probabilidades parciales. De esta clasificaci´ on se obtendr´ a la probabilidad de pertenencia de cada uno de los vectores a cada uno de los grupos. El c´ alculo del error cometido se realizar´ a observando si el grupo que tiene un porcentaje mayor de Bien clasificados pertenencia se corresponde con el grupo al que saVT Clasificador bemos que pertenece el vector en cuesti´ on. Esto lo Mal clasificados realizaremos con todos los vectores clasificados, y se calcular´ a el total de ellos que han sido correctamente clasificados. La proporci´ on de este n´ umero Figura 7.7: Idea de flujo de los vectores en el clasicon respecto al total de vectores de test que han ficador entrado en el clasificador ser´ a considerado el error en el diagn´ ostico por comparaci´ on de vectores generados a partir de un patr´on o un tipo de patr´on determinado. Este procedimiento se repetir´ a un n´ umero determinado de veces, con lo que se podr´an aleatorizar los vectores de test y de entrenamiento, para comprobar las variaciones en el error de diagn´ostico, lo que nos puede dar una idea de lo homog´eneo que es un conjunto de datos, o de la calidad de los datos para su utilizaci´ on como modelo de clasificaci´ on. A continuaci´ on se desarrolla de manera detallada el procedimiento con el que se ha calculado el error en el diagn´ ostico.

7.3.3.

Metodolog´ıa

El procedimiento comienza una vez se han separado los vectores en V.T. y V.E. En primer lugar, se tomar´ an los vectores de entrenamiento para calcular las distribuciones de cada una de las caracter´ısticas seg´ un lo establecido en el cap´ıtulo anterior, reservando los vectores de test para la siguiente etapa. Una vez se han calculado las funciones de densidad y sus par´ametros, se procede a ponderar cada una de las caracter´ısticas de acuerdo al criterio del solape. C´ alculo del error seg´ un los distintos conjuntos de vectores En el procedimiento del diagn´ ostico se cargan las matrices de datos correspondientes a las diferentes agrupaciones de los vectores, se limpiar´ an de vectores at´ıpicos y se seleccionar´an las columnas correspondientes a las caracter´ısticas interesantes. As´ı, se tendr´an diferentes matrices correspondiendo a los patrones de tipo est´ atico, cin´etico, din´ amico, todos los patrones juntos o el PT1, PT2, . . . , PT18. A estas matrices las denotaremos por Xe , Xc , Xd , Xt o XPT1 , XPT2 , . . . XPT18 , respectivamente. De forma gen´erica, nos referiremos a una matriz de datos limpios como hasta ahora, X. El inter´es de tener por separado estas matrices es que as´ı podemos observar el diagn´ostico diferencial entre los distintos tipos de pacientes de una manera m´as focalizada. Gracias a ello, se podr´an calcular los errores en el diagn´ ostico por comparaci´ on de los vectores est´atico, cin´eticos, etc., y se podr´a tener una idea de cu´ ales son los mejores en cuanto al diagn´ostico de una enfermedad. Hay que recordar que los par´ ametros de las distribuciones se han calculado tras haber realizado el desplazamiento correspondiente de las columnas de las matrices de datos de manera que las observaciones cj sean positivas. Esto implica que a la hora de clasificar, los vectores de test tambi´en deben ser desplazados para adaptarlos a las funciones de densidad correspondientes. Una vez se tienen las matrices de datos de test correctamente desplazadas, nos encontramos en condiciones de evaluar las pertenencias a cada conjunto. C´ alculo de los pesos de las distribuciones ´ Supongamos que estamos trabajando con la matriz de datos X. Esta ha sido dividida en Xe para calcular las leyes de pertenencia a los conjuntos borrosos mediante las funciones de densidad de sus columnas. De esta manera, tenemos una matriz Xe ∈ Mne ×m , y por lo tanto tenemos m leyes de pertenencia para cada uno de los conjuntos borrosos E, P y S. A estas leyes de pertenencia las denominaremos, por ejemplo, µjE , para referirnos a la ley de pertenencia al conjunto del temblor esencial seg´ un la variable j. j Estas µk han sido calculadas en base a ne valores, por lo que su precisi´on en la definici´on de las fronteras del conjunto E (k ∈ E = {E, P, S}) depende directamente del n´ umero ne . Cuanto mayor sea

7.3 - Clasificaci´ on seg´ un las distribuciones

161

´este, mayor ser´ a la confianza que podremos tener en la ley µjk . Adem´as, las tres matrices de datos a partir de las que se han obtenido las tres leyes correspondientes a los tres conjuntos borrosos tienen, de forma general, un n´ umero de filas ne distinto, por lo que la precisi´on con la que se ha calculado cada una de las tres leyes µjE , µjP y µjS no tiene por qu´e ser igual. De hecho, casi siempre el n´ umero de filas de las matrices de temblor esencial ser´ an menores que el de las matrices de Parkinson o pacientes sanos, por lo que la precisi´ on de las leyes de temblor esencial ser´a menor. Esto nos permite vaticinar que los resultados que se obtengan en el c´ alculo del error en el diagn´ostico de temblor esencial ser´a muy variable, debido precisamente a la pobreza en el n´ umero de datos. Consideremos por tanto que trabajamos con una de las m caracter´ısticas y que por simplificaci´ on notaremos por µE , µP y µS a las leyes de pertenencia a cada uno de estos tres conjuntos para esta caracter´ıstica j. La definici´ on del porcentaje de solape estaba referida a una funci´on de estas leyes de pertenencia, relacionada con la ley uni´ on y la ley solape definida por 7.6. Este es el momento de concretar y definir el coeficiente de solape como una relaci´on entre estas dos funciones. Definici´ on 32. Coeficiente de solape Sea µE∪P ∪S la uni´ on de las leyes de pertenencia a los conjuntos borrosos E, P y S, respectivamente. Sea µs(E∪P ∪S)∩Ω la ley del solape de estos tres conjuntos, con Ω = m´axE,P,S {µE , µP , µS }. Sea xi un individuo cualquiera dentro del universo c al que pertenecen los conjuntos borrosos E, P y S. Sea PN = {x1 , x2 , . . . , xN } una N-partici´ on de c entre [x1 , xN ], con x1 ≤ m´ın {ci , ∀i ∈ {1, . . . , ne }} y xN ≥ m´ ax {ci , ∀i ∈ {1, . . . , ne }}. Se define el ´ area bajo la curva descrita por la ley de la uni´ on µE∪P ∪S como Au =

N −1 X i=1

µE∪P ∪S (xi+1 ) · (xi+1 − xi ), ∀xi ∈ PN

(7.8)

N´ otese que cuanto mayor sea el grado de la partici´ on N m´ as preciso ser´ a el c´ alculo del ´ area bajo la curva descrita por la ley de pertenencia. De manera an´ aloga se defina el ´ area bajo la curva descrita por la ley de solape µs(E∪P ∪S)∩Ω como As =

N −1 X i=1

µs(E∪P ∪S)∩Ω (xi ) · (xi+1 − xi ), ∀xi ∈ PN

(7.9)

Se define entonces el coeficiente de solape como la relaci´ on entre las ´ areas Au y As :

W = Cs =

As Au

(7.10)

Este valor ser´ a tomado como peso para la caracter´ıstica j con el que se ponderar´an los resultados obtenidos en la clasificaci´ on de cada vector por cada caracter´ıstica. Para estandarizar los pesos, una vez se hayan calculado todos los Wj , se normalizar´a el conjunto de forma que wj =

Wj m X Wj

(7.11)

j=1



y se obtendr´ a el vector de ponderaciones w = w1

w2

···

wj

···

wm



C´ alculo de las probabilidades de pertenecer a un conjunto borroso En este momento entran en juego los vectores de test. De la matriz Xt ∈ Mnt ×m se tomar´an los vectores fila xi y se someter´ an a la clasificaci´on. El m´etodo por el que se calculan las pertenencias a los conjuntos es mediante la evaluaci´on de las componentes de xi , que desde ahora llamaremos x para simplificar la notaci´on, sobre las leyes de pertenencia µjE , µjP y µjS .

162

Cap´ıtulo 7 - Clasificaci´ on

Una vez calculadas las pertenencias a cada conjunto por cada caracter´ıstica, se ponderar´an los resultados con w, y se calcular´ a la probabilidad de pertenencia a cada conjunto como una funci´on de estas probabilidades parciales ponderadas. Se compondr´ a una matriz Π ∈ M|E |×m , |E = {E, P, S}| = 3, con las probabilidades de pertenencia al conjunto k ∈ E en base a la caracter´ıstica j. La primera fila corresponde a las probabilidades de pertenencia al temblor esencial, la segunda al Parkinson y la tercera a los pacientes sanos:   π11 π12 · · · π1j · · · π1m     (7.12) Π = π21 π22 · · · π2j · · · π2m    π31 π32 · · · π3j · · · π3m Cada πej se calcula como la evaluaci´ on sobre µjk :

πej =

µjk (xj )

∀e ∈ {1, 2, 3}

∀k ∈ E = {E, P, S}

(7.13)

∀j = {1, 2, . . . , m}

De esta manera, cada xi tendr´ a una matriz Πi asociada con las probabilidades de pertenencia parciales. Clasificaci´ on Calculadas las probabilidades parciales de pertenencia, se considerar´a que las filas de la matriz Π suman la unidad. Esto es posible simplemente normalizando Π por filas de la misma manera que se hizo con el vector de ponderaci´ on en 7.11 A continuaci´ on se ponderar´ a la matriz Π de acuerdo con el vector w obtenido en la etapa de ponderaci´ on de las leyes. As´ı se obtendr´ a una matriz Πw cuyos elementos est´an ponderados de la siguiente manera:   w1 π11 w2 π12 · · · wj π1j · · · wm π1m     Πw = w1 π21 w2 π22 · · · wj π2j · · · wm π2m  (7.14)   w1 π31 w2 π32 · · · wj π3j · · · wm π3m

y por lo tanto cada vector xi tendr´ a su Πw i asociado. La clasificaci´ on viene dada por el c´ alculo de la pertenencia global a un conjunto dado, calculada como una funci´ on de las columnas de Πw . De esta funci´on depende en buena parte la clasificaci´on. En este proyecto se propone utilizar la suma normalizada de las probabilidades parciales ponderadas. No obstante, la definici´ on de la funci´ on de c´ alculo de la pertenencia global puede modificarse en futuros trabajos para intentar obtener mejores resultados. Definici´ on 33. Funci´ on de pertenencia global Sea Πw la matriz de pertenencias parciales ponderada por el vector de pesos w. Se define la funci´ on de pertenencia global a un conjunto k, ∀k ∈ E como ∀e ∈ {1, 2, 3}

β k (x) =

m X

wj πej

j=1

|E | X m X

∀k ∈ E = {E, P, S} wj πej

e=1 j=1

∀j ∈ {1, 2, . . . , m}

(7.15)

7.3 - Clasificaci´ on seg´ un las distribuciones

163

De esta manera, se calcular´ an los βik para todos los vectores de test, y se tomar´a la como clasificaci´ on del vector xi aquel conjunto para el cual βik toma el mayor valor: Definici´ on 34. Clasificaci´ on Sea βik la pertenencia global de un vector xi a un conjunto k ∈ E = {E, P, S}. Se define la clasificaci´ on de xi , Ki = K(xi ) como  Ki = K(xi ) , m´ax βiE , βiP , βiS E,P,S

(7.16)

C´ alculo del error en diagn´ ostico Hemos calculado la clasificaci´ on de un vector en un conjunto entre tres dados aplicando la l´ ogica borrosa. As´ı, hemos obtenido un conjunto K = {K1 , K2 , . . . , Knt } que denotan las clasificaciones de cada uno de los vectores xi que forman la matriz Xt de vectores de test. En total hemos obtenido tres matrices XtE , XtP y XtS , cada una correspondiente a los vectores de test extra´ıdos de la matriz de datos de los pacientes de temblor esencial, Parkinson y sanos, respectivamente. La clasificaci´ on se ha realizado sobre los vectores de test de cada una de las enfermedades por separado, con el prop´ osito de conocer el diagn´ ostico real de cada uno de ellos para poder comparar el resultado de la clasificaci´ on con la clasificaci´ on original. Tenemos por tanto tres matrices de test que han dado lugar cada una a las clasificaciones Ki de sus vectores fila. Si denotamos por Ki? a la clasificaci´on original de cada vector, el c´alculo del error se realiza como sigue: Definici´ on 35. C´ alculo del error en el diagn´ ostico  Sean los conjuntos K ? = K1? , K2? , . . . , Kn?t y K = {K1 , K2 , . . . , Knt } los que representan las clasificaciones originales y calculadas, respectivamente. Sea K X = K ? ∩ K el conjunto intersecci´ on entre las clasificaciones originales y las calculadas tal que Ki? = Ki . Se define el error como la proporci´ on de elementos en K X (bien clasificados) y los elementos totales:

η=

7.3.4.

X K |K ? |

=

X K |K|

(7.17)

Combinaciones de c´ alculo de error

En la anterior secci´ on se ha explicado el procedimiento gene- Tabla 7.1: Posibles combinacioral, en el caso de que se desee realizar un diagn´ostico diferencial nes de las enfermedades para el entre los tres conjuntos de pacientes al mismo tiempo. Puede ser diagn´ ostico diferencial interesante realizar el diagn´ ostico diferencial entre los pacientes de temblor esencial y Parkinson, o entre los Parkinson y los sanos. vs. E P S Para ello basta considerar el conjunto E = {E, P } o E = {P, S} y calcular las probabilidades parciales. En este caso, las matrices Π E • ηEP ηES an solo dos filas, pues el cardinal del conjunto E ahora y Πw tendr´ es dos. En cuanto a la clasificaci´ on, se calcular´an los Ki de igual P ηEP • ηP S manera (sumando y normalizando las filas de Πw ), y respecto del S ηES ηP S • c´ alculo del error, podremos considerar las combinaciones de la tabla 7.1, junto con, evidentemente, la combinaci´on de todas ellas, ηEP S .

7.3.5.

Algoritmo de repetici´ on aleatoria del diagn´ ostico

En resumen, el diagn´ ostico de los vectores se simula variando los vectores de test de entre un conjunto dado X. En el algoritmo 9 se muestra el procedimiento de repetici´on aleatoria detallado, empleando la notaci´ on con la que se ha expuesto el m´etodo. En primer luagar, un bucle nos permite iterar un n´ umero deseado de veces las simulaciones, para obtener diferentes intentos de diagn´ ostico y poder calcular una media de entre todos ellos.

164

Cap´ıtulo 7 - Clasificaci´ on

En su interior, se llama a los procedimientos ‘‘limpiarMatriz’’ (eliminar at´ıpicos y reducir dimensi´on) y ‘‘separarDatos’’, que se explican en las secciones 6.7, 6.10 y 6.11, respectivamente. Tras ello, obtendremos los conjuntos de los vectores de test Xt y vectores de entrenamiento Xe con los que calcular el error de diagn´ ostico. Los vectores de entrenamiento generan las leyes de pertenencia de los conjuntos borrosos E, P y S para cada una de las caracter´ısticas consideradas, y con estas leyes se pasa a calcular el vector de ponderaci´ on w. Tras ello, se calculan las probabilidades de pertenencia a cada conjunto de manera global, y se calcula la clasificaci´ on seg´ un 7.16. Finalmente, se calcula el error cometido en el diagn´ostico. Algoritmo 9: Algoritmo de simulaciones de diagn´ostico aleatorias b k , ∀k ∈ E = {E, P, S} entrada :X matrices de datos para un patr´ on o tipo de patr´ on for k ∈ E = {E, P, S} do b k ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . eliminar at´ıpicos y reducir dimensi´ Xk ← limpiarMatriz(X on iteraci´ on← 1 while iteraci´ on≤ n´ umero de simulaciones do for k ∈ E = {E, P, S} do [Xek , Xtk ] ← separarDatos(Xk ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . aleatorizaci´ on for k ∈ E = {E, P, S} do for j ← 1 to m do µk ← ajustar P.D.F. de la columna j de Xek for k ∈ E = {E, P, S} do for j ← 1 to m do wj ← calcular coeficiente de solape entre µjk

for i ← 1 to nt do Πi ← calcular matriz de pertenencias parciales del vector de test xi for k ∈ E = {E, P, S} do β k (xi ) ← calcular pertenencia global a cada conjunto borroso  Ki ← m´ ax βiE , βiP , βiS E,P,S X K η← |K ? | iteraci´ on← iteraci´ on +1

7.3.6.

Resultados y conclusiones

El algoritmo descrito en la secci´ on anterior nos permite realizar diagn´osticos diferenciales entre los distintos conjuntos borrosos, entre los distintos tipos de paciente. En el an´ alisis de los resultados de la aplicaci´on de este algoritmo se ha intentado obtener una perspectiva desde diferentes puntos de vista acerca de las diferencias entre los patrones a la hora de realizar el diagn´ ostico, intentando encontrar las combinaciones entre ellos que nos permitan obtener mejores resultados. El m´etodo seguido para comprobar la bondad de las pruebas, as´ı como la calidad de la diferenciaci´on que ´estas permiten obtener entre los distintos pacientes, consiste en realizar el diagn´ostico diferencial a partir de las matrices de datos que se han construido. De esta manera, se obtendr´a un diagn´ostico a partir de los vectores de la matriz generada con los patrones est´aticos, cin´eticos, din´amicos, todos juntos y, seguidamente, el PT1, el PT2, . . . , PT18. El inter´es del m´etodo es tambi´en comprobar la capacidad de diagnosticar considerando distintas combinaciones entre los grupos, por lo que para cada uno de los diagn´osticos anteriores se podr´a calcular el diagn´ ostico tomando las combinaciones de conjuntos borrosos {E, P }, {E, S}, {P, S} y {E, P, S}. A continuaci´ on se presentan los resultados obtenidos mediante algunas de las combinaciones m´as interesantes de las anteriores.

7.3 - Clasificaci´ on seg´ un las distribuciones

165

Errores por tipos de patr´ on En primer lugar se analizar´ an los errores cometidos al aleatorizar los vectores de test de las matrices correspondientes a los patrones de tipo est´atico, cin´etico y din´amico. Asimismo, se considerar´a tambi´en el conjunto de todos los vectores juntos, aunque como se anticip´o, no tiene mucho sentido, pues representan distintas manifestaciones del temblor, por lo que existir´an numerosos vectores ‘‘at´ıpicos’’ irreales. Errores en diagn´ ostico de temblor esencial En la figura 7.8 se muestra el resultado del diagn´ostico diferencial entre el temblor esencial y el Parkinson, al intentar clasificar los vectores de temblor esencial. En esta figura se presentan cuatro gr´ aficas, que se corresponden con los errores en las simulaciones (iteraciones en el eje de abscisas) al comparar u ´nicamente los vectores de patrones est´aticos (en rojo), cin´eticos (en verde) y din´ amicos (en azul). Adem´as, en negro se presentan los errores al comparar todos los vectores juntos. Errores en el diagn´ ostico de Esencial vs. Parkinson. (20 iteraciones)

Porcentaje de error en el diagn´ostico

100 Errores Estaticos (5 vectores) 0 % error medio Estaticos Errores Cin´eticos (20 vectores) 19.8 % error medio Cin´eticos Errores Din´ amicos (6 vectores) 10 % error medio Din´amicos Errores Todos (30 vectores) 13.6 % error medio Todos

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´ on

12

13

14

15

16

17

18

19

20

Figura 7.8: Errores cometidos en el diagn´ ostico de temblor esencial al intentar diferenciar los vectores de test entre temblor esencial y Parkinson (E = {E, P }) En primer lugar llama la atenci´ on el error medio al clasificar los vectores seg´ un los patrones est´aticos. Como se puede comprobar, es nulo para veinte comprobaciones, lo que significa que la clasificaci´ on es realmente buena o, lo que es lo mismo, que los patrones est´aticos permiten diferenciar bastante bien los enfermos de temblor esencial y los enfermos de Parkinson. Teniendo en cuenta que los patrones est´aticos son aquellos en los que el temblor esencial no deber´ıa manifestarse de manera muy intensa, pero s´ı el temblor parkinsoniano, este resultado es coherente con la teor´ıa. Es remarcable tambi´en lo que se ha prevenido m´as arriba: el n´ umero de vectores de test es bastante peque˜ no (solo cinco vectores), por lo que hay que tomar con prudencia este resultado tan optimista. El hecho de que haya cinco vectores de test significa que las leyes de pertenencia (las funciones de densidad) se han calculado a partir de veinte vectores, lo cual no es demasiado concluyente respecto de la calidad de estas leyes sobre las que se evaluan los vectores de test. Por otra parte, es coherente tambi´en que el siguiente tipo de patr´on que produce el error m´as bajo en el diagn´ ostico sea el conjunto de los patrones din´amicos, pues ser´a en este caso en el que los pacientes de temblor esencial produzcan trayectorias m´as temblorosas, no as´ı los pacientes de Parkinson. En este caso el n´ umero de vectores de test tambi´en nos lleva a tomar con precauci´on este resultado (seis vectores de test, por lo que veinticuatro vectores de entrenamiento). Cuando se comparan los patrones cin´eticos, como es de esperar, el error cometido en el diagn´ostico aumenta, debido precisamente a la posibilidad de manifestaci´on del temblor esencial y Parkinson en algunos de los patrones que forman parte de este conjunto. El n´ umero de vectores de test es bastante mayor que en los otros dos casos, por lo que s´ı podemos tomar este resultado como m´as fiable que en el caso de los patrones est´ atcos o din´ amicos.

166

Cap´ıtulo 7 - Clasificaci´ on

Finalmente, al juntar los vectores de todos los patrones se obtiene un error medio mayor que en los dos casos m´ as optimistas, pero menor que en el caso del diagn´ostico por patrones cin´eticos. Esto puede deberse a que las leyes de pertenencia est´ an m´ as separadas que en el caso que los patrones cin´eticos, pero m´as superpuestas que en el caso de los patrones est´aticos o din´amicos, y a que a la hora de evaluar los vectores nos podemos encontrar tanto con vectores din´amicos que se toman por est´aticos, siendo clasificados en este caso como vectores de Parkinson, cuando son en realidad de temblor esencial, o viceversa. En definitiva, el diagn´ ostico diferencial de los pacientes de temblor esencial entrega mejores resultados, con diferencia, al evaluar las caracter´ısticas calculadas a partir de las trayectorias descritas por las pruebas de tipo est´ atico y din´ amico. Errores en el diagn´ ostico de Parkinson En este caso los vectores de test son de las matrices de datos de los patrones est´ aticos, cin´eticos, din´amicos y todos juntos de los pacientes de Parkinson. En la figura 7.9 se muestran los resultados de este diagn´ostico diferencial entre ambas enfermedades por los distintos grupos de pruebas. En rojo se indican los errores por comparar patrones estaticos, en verde al comparar patrones cin´eticos, en azul los patrones din´amicos y en negro el resultado del diagn´ostico considerando todas las pruebas realizadas por los pacientes. Errores en el diagn´ ostico de Parkinson vs. Esencial. (20 iteraciones)

Porcentaje de error en el diagn´ostico

100 Errores Estaticos (20 vectores) 28.7019 % error medio Estaticos Errores Cin´eticos (76 vectores) 36.4688 % error medio Cin´eticos Errores Din´ amicos (38 vectores) 51.9937 % error medio Din´amicos Errores Todos (131 vectores) 46.1928 % error medio Todos

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´on

12

13

14

15

16

17

18

19

20

Figura 7.9: Errores cometidos en el diagn´ ostico de Parkinson al intentar diferenciar los vectores de test entre temblor esencial y Parkinson (E = {E, P }) Lo primero que llama la atenci´ on en este caso es el error medio global. En general ha aumentado con respecto del diagn´ ostico del temblor esencial, aunque se mantiene la tendencia de obtener menor error al diagnosticar de acuerdo a los patrones est´ aticos, lo cual es coherente. El error medio cometido por comparaci´ on de patrones est´aticos se encuentra en torno al 29 %, llegando a obtenerse resultados del 19 % como m´ınimo y 44 % como m´aximo. Si recordamos el an´alisis de las distribuciones en el cap´ıtulo anterior, encontramos que el Parkinson se distribu´ıa de una manera m´as amplia a lo largo del espectro de frecuencias, lo que generaba una funci´on de densidad m´as amplia. Al contrario, en el caso del temblor esencial los vectores limpios se concentraban en torno a las frecuencias t´ıpicas en cada conjunto de patrones, lo que estrechaba las funciones de densidad. Esto puede ser el motivo de que los errores de diagn´ ostico de Parkinson sean en general m´as grandes, pues no solo las funciones de densidad son m´ as anchas, sino que los vectores de test tienen valores m´as variables y cuando ´estos se encuentran en torno a una frecuencia t´ıpica de temblor esencial, la evaluaci´on sobre esta campana genera una probabilidad de pertenencia a este conjunto borroso mayor que al de Parkinson. En cuanto a los vectores de tipo cin´etico, llama la atenci´on que en este caso entreguen un error en diagn´ ostico inferior que los vectores de tipo din´amico. Esto puede deberse a que en el caso del Parkinson las manifestaciones del temblor se produzcan justo cuando deben (en los mismos patrones), y con la misma frecuencia, lo que sugiere que los pacientes de Parkinson se comportan de manera m´as fiable en cuanto

7.3 - Clasificaci´ on seg´ un las distribuciones

167

el tipo de movimiento requiere cierta intencionalidad. El caso de los patrones cin´eticos es interesante porque en ninguno de ellos el paciente mantiene la postura, lo que aumenta las probabilidades de que, en general, el temblor parkinsoniano tienda a desaparecer. No es as´ı en el caso de lo patrones din´amicos, entre los cuales se encuentra el PT15 que consiste en mantener la postura, lo que puede dar lugar a alguna manifestaci´ on del temblor en el caso del Parkinson, pese a tener que vencer una fuerza virtual. Errores en el diagn´ ostico de pacientes sanos En este caso se ha decidido comparar los resultados del diagn´ ostico diferencial entre pacientes sanos y temblor esencial, cuando se evaluan vectores de pacientes sanos. Al igual que en los casos anteriores, se ha calculado el error para cada uno de los tipos de patr´ on en los que clasificamos el temblor, obteni´endose los resultados de la figura 7.10. Errores en el diagn´ ostico de Sanos vs. Esencial. (20 iteraciones)

Porcentaje de error en el diagn´ostico

100 Errores Estaticos (13 vectores) 1.9011 % error medio Estaticos Errores Cin´eticos (77 vectores) 2.9866 % error medio Cin´eticos Errores Din´amicos (30 vectores) 3.4957 % error medio Din´ amicos Errores Todos (119 vectores) 16.6208 % error medio Todos

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´ on

12

13

14

15

16

17

18

19

20

Figura 7.10: Errores cometidos en el diagn´ ostico de pacientes sanos al intentar diferenciar los vectores de test entre temblor esencial y pacientes sanos (E = {E, S}) Como se puede comprobar, el diagn´ ostico se ha realizado de manera muy satisfactoria, pues en ningun caso de los tres sobrepasa el 4 % de error. El caso de considerar todos los patrones juntos es insignificante, pues como se expuso m´ as arriba, tiene en cuenta todos los vectores, dando lugar a confusiones entre un vector de reposo de una enfermedad con uno din´amico o cin´etico de otra, o viceversa. En todos los diagn´ osticos el error m´aximo producido es inferior a 10 %. Estos valores tan bajos pueden deberse a que las funciones de densidad de los pacientes de temblor esencial y lo sanos est´an muy bien separadas, es decir, muy poco solapadas, y que los vectores de los pacientes sanos est´an muy poco dispersos, evitando asi caer en la zona donde la evaluaci´on sobre las leyes de pertenencia dar´ıan ventaja al temblor esencial. Errores por patrones separados Ya se han visto los resultados del diagn´ostico considerando los vectores de los conjuntos de patrones. Como se ha expuesto, la variabilidad entre la naturaleza de cada uno de los tipos de patr´on puede hacer que el error considerando el conjunto no sea del todo preciso, y que algunos patrones provoquen m´ as tendencia al solape entre los conjuntos borrosos y otros permitan diferenciarlos mejor. En este estudio de los errores por patrones separados se pretende obtener una idea de c´omo la consideraci´ on de cada patr´ on nos puede llevar a introducir m´as error en el diagn´ostico que si lo excluimos del conjunto de evaluaci´ on. Se expondr´ an aqu´ı los resultados m´as importantes acerca de este estudio en profundidad de cada patr´ on, intentando esclarecer el por qu´e de la variabilidad en el diagn´ostico. Se adelanta que no en todos los casos los resultados pueden considerarse muy fiables, pues el conjunto de vectores a partir del cual se

168

Cap´ıtulo 7 - Clasificaci´ on

trabaja es muy reducido, debido a que la realizaci´on de ciertos patrones no fue muy com´ un, adem´as de por la eliminaci´ on de vectores at´ıpicos. Estudio de los patrones est´ aticos por separado Vamos a intentar esclarecer si en efecto se produce una diferencia de error al comparar los dos patrones por separado, intentando diagnosticar, por ejemplo, el temblor esencial frente al Parkinson. Como se puede ver en la figura 7.11, se evidencia la naturaleza distinta de ambos patrones PT1 y PT2, en los que el temblor esencial y el Parkinson deber´ıan ser f´acilmente distinguibles.

% error en el diagn´ostico

Errores en el diagn´ ostico de Esencial vs. Parkinson. (20 iteraciones) 100 90 80 70 60 50 40 30 20 10 0

Errores PT1 (2 vectores) 8 % error medio PT1 Errores PT2 (1 vectores) 16 % error medio PT2

1

2

3

4

5

6

7

8

9

10 11 Iteraci´ on

12

13

14

15

16

17

18

19

20

Figura 7.11: Errores cometidos en el diagn´ ostico de pacientes de temblor esencial al intentar diferenciar los vectores de test entre temblor esencial y Parkinson considerando los patrones est´ aticos por separado (E = {E, P }) En efecto, el n´ umero de vectores de test es muy reducido, lo que no nos permite avalar el resultado, pero a´ un asi podemos hacernos una idea de lo que deber´ıa suceder en el caso de tener m´as soporte respecto a los datos. La idea es la siguiente: el patr´ on PT1 debe ser un buen diferenciador del temblor entre Parkinson y temblor esencial por dos motivos: en primer lugar, se trata de un patr´on completamente postural, en el que no hay que vencer ninguna fuerza, por lo que el Parkinson deber´ıa manifestarse de forma general. En segundo lugar, al ser un patr´ on tan est´ atico, el temblor esencial no deber´ıa aparecer. Por ello, el error cometido al comparar por el patron PT1 es menor que el error por el PT2, ya que en este u ´ltimo el paciente tiene que mantener el brazo extendido, venciendo su propio peso, lo que provocar´ıa un mator aumento en el temblor de Parkinson y la aparici´on de un ligero temblor de esencial, dando lugar a posibles confusiones. En la figura 7.12 se puede ver el caso de comparar con los pacientes sanos.

% error en el diagn´ostico

Errores en el diagn´ ostico de Sanos vs. Esencial. (20 iteraciones) 100 90 80 70 60 50 40 30 20 10 0

Errores PT1 (5 vectores) 19.2 % error medio PT1 Errores PT2 (7 vectores) 0 % error medio PT2

1

2

3

4

5

6

7

8

9

10 11 Iteraci´ on

12

13

14

15

16

17

18

19

20

Figura 7.12: Errores cometidos en el diagn´ ostico de pacientes de temblor esencial al intentar diferenciar los vectores de test entre temblor esencial y pacientes sanos considerando los patrones est´ aticos por separado (E = {E, S}) Aqu´ı se muestra tambi´en el resultado que se esperaba. El temblor esencial no se manifiesta pr´acticamente en reposo, por lo que los pacientes de temblor esencial y los sanos ser´an dif´ıciles de distinguir al

7.3 - Clasificaci´ on seg´ un las distribuciones

169

realizar el patr´ on PT1, ya que ninguna de los dos temblar´a, dando lugar a un cierto error en el diagn´ ostico. Sin embargo, los pacientes de temblor esencial s´ı tienden a temblar en la realizaci´on del patr´on PT2, al haber una peque˜ na componente din´ amica por el mantenimiento del brazo recto en posici´on horizontal. Por ello, ser´ a m´ as f´ acil distinguir a los pacientes de temblor esencial de los sanos cuando se comparan los vectores del PT2, dando lugar a un error menor, como es el caso de la figura de arriba. En ambos casos el n´ umero de vectores no es suficiente para obtener unos resultados firmes, pero al cumplirse la hip´ otesis de partida podemos considerar que el modelo de clasificaci´on funciona bien para el diagn´ ostico por comparaci´ on de vectores de tipo est´atico. Estudio de los patrones cin´ eticos por separado Los patrones cin´eticos, recordando, se pueden dividir en patrones lineales, en los que el paciente tiene que seguir una trayectoria rectil´ınea (caso de los patrones PT3, PT4, PT5 y PT6 para las trayectorias bidimensionales y PT12, PT13 y PT14 para las trayectorias rectil´ıneas tridimensionales), una trayectoria circular o espiral (patrones PT7, PT8 y PT9), o trayectorias senoidales (PT10 y PT11). A medida que avanza la comlejidad del patr´on, m´as concentraci´on se requiere por parte del paciente, as´ı como mayor precisi´ on en el movimiento. En las figuras 7.13, 7.14, 7.15 y 7.16se muestran los resultados de los diagn´osticos diferenciales considerando los vectores de cada uno de los patrones por separado. En primer lugar, analizaremos los resultados del diagn´ostico diferencial del temblor esencial contra el Parkinson. En este caso se han separado los vectores de test de los pacientes de temblor esencial y se han calculado las leyes de pertenencia a los conjuntos borrosos de temblor esencial y Parkinson sobre los que evaluar estos vectores de test. Como se puede ver en la figura 7.13, el n´ umero de vectores de test que han quedado tras la separaci´ on de la matriz de datos es muy peque˜ no, al igual que en el caso de la figura 7.11. Esto implica que los resultados obtenidos aqu´ı no pueden tener validez absoluta, sino que se deben tomar como gu´ıas para hacernos una idea de lo que deber´ıamos obtener. Errores en el diagn´ ostico de Esencial vs. Parkinson. (20 iteraciones) 100 Errores PT3 (2 vectores) 12.5 % error medio PT3 Errores PT5 (2 vectores) 0 % error medio PT5 Errores PT6 (2 vectores) 15 % error medio PT6 Errores PT8 (2 vectores) 0 % error medio PT8 Errores PT9 (2 vectores) 15 % error medio PT9 Errores PT10 (2 vectores) 12.5 % error medio PT10 Errores PT11 (2 vectores) 20 % error medio PT11 Errores PT13 (1 vectores) 0 % error medio PT13

Porcentaje de error en el diagn´ostico

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´ on

12

13

14

15

16

17

18

19

20

Figura 7.13: Errores cometidos en el diagn´ ostico de pacientes de temblor esencial al intentar diferenciar los vectores de test entre temblor esencial y Parkinson considerando los patrones cin´eticos por separado (E = {E, P }) Llama la atenci´ on el hecho de que falten los patrones PT4, PT7, PT12 y PT14 en la figura. Si recordamos lo que se expuso en la tabla C.1c, en el ap´endice C, la realizaci´on de estos patrones no se llev´ o a cabo por los pacientes de Parkinson, lo que implica que no se pueda hacer un diagn´ostico diferencial, al no haber con qu´e comparar.

170

Cap´ıtulo 7 - Clasificaci´ on

Al tratarse de los vectores de test del temblor esencial, el n´ umero que nos queda de ellos es muy reducido. No obstante, podemos tomar estos resultados como una muestra de contraste de la teor´ıa con la pr´ actica, y obtener conclusiones que, aunque no muy precisas, nos ayudan a hacernos una idea de la calidad del m´etodo. La teor´ıa nos dice que el temblor esencial y el parkinsoniano se distinguen bien al existir o no existir intenci´ on y concentraci´ on. Pero tambi´en nos dice que el temblor esencial est´a presente en los movimientos cin´eticos, y que el temblor parkinsoniano tiende a presentarse, anque no con tanta frecuencia. Esto nos lleva a que, en general, sea dif´ıcil distinguir a los pacientes de temblor esencial de los de Parkinson en este tipo de patrones. En un principio deber´ıamos tener menos error al tener en cuenta los patrones PT10 y PT11, pues son aquellos que requieren m´ as concentraci´on al tratarse de los circuitos senoidales, y obtener peores resultados al emplear los patrones PT3, PT5 y PT6, pues son los m´as sencillos, por lo que la aparici´ on del temblor esencial deber´ıa ser d´ebil y el temblor parkinsoniano deberia tender a desaparecer (aunque no del todo). Con esto, bajo el an´ alisis de los resultados de la figura 7.13 podemos concluir que el pron´ostico se ha cumplido parcialmente, pues en efecto se obtiene cierto error en los patrones sencillos, pero se obtiene m´ as error en los patrones PT10 y PT11, los senoidales. Sin embargo, bajo el diagn´ostico de las espirales se obtienen errores bajos, lo cual es coherente con la concentraci´on requerida para realizar estos patrones (PT8 y PT9). Estas discrepancias pueden deberse sin duda a la falta de vectores de test, puesto que esto significa que las funciones de densidad no son ni mucho menos robustas. Adem´as, las variaciones a priori tan grandes (desde cero hasta 50 %) son debidas simplemente a que el n´ umero de vectores de test es dos, por lo que el error solo puede ser 0 %, 50 % y 100 %. En la figura 7.14 se muestran los resultados del diagn´ostico por patrones cin´eticos separados en el caso de que los vectores de test sean de Parkinson y se realice el diagn´ostico diferencial entre Parkinson y temblor esencial. Errores en el diagn´ ostico de Parkinson vs. Esencial. (20 iteraciones) 100 Errores PT3 (8 vectores) 23.75 % error medio PT3 Errores PT5 (8 vectores) 10 % error medio PT5 Errores PT6 (8 vectores) 18.125 % error medio PT6 Errores PT8 (8 vectores) 28.75 % error medio PT8 Errores PT9 (10 vectores) 30.5 % error medio PT9 Errores PT10 (7 vectores) 24.2857 % error medio PT10 Errores PT11 (8 vectores) 16.25 % error medio PT11 Errores PT13 (4 vectores) 33.75 % error medio PT13

Porcentaje de error en el diagn´ostico

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´on

12

13

14

15

16

17

18

19

20

Figura 7.14: Errores cometidos en el diagn´ ostico de pacientes de Parkinson al intentar diferenciar los vectores de test entre temblor esencial y Parkinson considerando los patrones cin´eticos por separado (E = {E, P }) En este caso encontramos algo un poco diferente. Aqu´ı el patr´on PT5 y el PT11 son los que nos entregan errores menores. A´ un siendo de naturaleza diferente, esto nos indica que algo hay en ellos que permite que el Parkinson se manifieste de una manera distinta al temblor esencial. Al igual que en el caso del diagn´ ostico de temblor esencial, obtenemos que los patrones lineales nos permiten obtener errores menores al clasificar los vectores, mientras que los espirales y las senoides empeoran la clasificaci´ on.

7.3 - Clasificaci´ on seg´ un las distribuciones

171

Particularmente el patr´ on PT13 es el que peor error entrega, lo que significa que los pacientes de ambos tipos se comportaron de manera similar en la realizaci´on de este patr´on. Para el caso de los pacientes sanos, al intentar clasificar sus vectores contra los de temblor esencial obtenemos los resultados de la figura 7.15. Como se puede ver, el n´ umero de V.T. es mayor que en el caso del temblor esencial, como el caso anterior del Parkinson. A´ un as´ı no podemos dar mucha credibilidad, pues estamos clasificando del orden de ocho vectores en IR1 2. Aqu´ı podemos comprobar que, una vez m´as, los patrones lineales permiten obtener menor error en el diagn´ ostico. Sin embargo, aparece una diferencia: el patr´on espiral PT9 y el patr´on sinusoidal PT10 generan una clasificaci´ on bastante buena en comparaci´on con los diagn´osticos diferenciales entre los pacientes enfermos. Esto puede deberse a que el temblor esencial aumenta con la intencionalidad, con el movimiento, y con la concentraci´ on, lo que permite diferenciar las caracter´ısticas de ´estos con las de los pacientes sanos con mayor claridad. Errores en el diagn´ ostico de Sanos vs. Esencial. (20 iteraciones) 100 Errores PT3 (5 vectores) 0 % error medio PT3 Errores PT5 (6 vectores) 9.1667 % error medio PT5 Errores PT6 (6 vectores) 20.8333 % error medio PT6 Errores PT8 (12 vectores) 20.4167 % error medio PT8 Errores PT9 (11 vectores) 10 % error medio PT9 Errores PT10 (6 vectores) 10 % error medio PT10 Errores PT11 (7 vectores) 22.8571 % error medio PT11 Errores PT13 (4 vectores) 36.25 % error medio PT13

Porcentaje de error en el diagn´ostico

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´ on

12

13

14

15

16

17

18

19

20

Figura 7.15: Errores cometidos en el diagn´ ostico de pacientes de sanos al intentar diferenciar los vectores de test entre temblor esencial y pacientes sanos considerando los patrones cin´eticos por separado (E = {E, S}) En lo que se refiere al diagn´ ostico diferencial de los pacientes sanos contra el Parkinson (figura 7.16), los resultados son mucho mejores en cuanto al porcentaje de error cometido. Aqu´ı resulta que los patrones para los cuales los vectores se parecen m´as entre s´ı son los lineales (particularmente el PT6), pues en los que la clasificaci´on genera m´as error. Al ser tan bajos estos errores, la diferenciaci´ on entre los mismos resulta complicada, impidiendo afirmar con certeza cu´al de todos los patrones cin´eticos es mejor para diferenciar a los pacientes sanos de los de Parkinson. En conclusi´ on general respecto de los patrones cin´eticos, en primer lugar hemos visto que cuanto mayor es el n´ umero de vectores de test, menor es la variabilidad, lo que demuestra que el algoritmo basado en la l´ ogica borrosa es tanto m´ as robusto cuanto mayor sea el n´ umero de elementos a partir de los cuales se calculan las leyes de pertenencia a los conjuntos borrosos. En segundo lugar nos hemos topado con la sorpresa de que los patrones lineales permiten obtener, en general, resultados m´ as satisfactorios que los patrones cin´eticos m´as complejos, lo que nos lleva a pensar que tal vez sean estos los que introducen m´as error en el diagn´ostico. Sin embargo, estas hip´otesis no pueden ser verificadas por los medios actuales, puesto que el n´ umero de vectores no permiten avalar estos resultados. En trabajos futuros en los que se consiga bien ampliar el n´ umero de pacientes (lo cual ser´ıa ideal), o bien generar nuevos vectores bajo criterior estad´ısticamente robustos, se podr´an obtener otros resultados m´ as fiables que permitan avalar o refutar estas hip´otesis.

172

Cap´ıtulo 7 - Clasificaci´ on Errores en el diagn´ ostico de Sanos vs. Parkinson. (20 iteraciones) 100 Errores PT3 (5 vectores) 1.6 % error medio PT3 Errores PT5 (6 vectores) 3.3333 % error medio PT5 Errores PT6 (6 vectores) 8 % error medio PT6 Errores PT8 (12 vectores) 3.3333 % error medio PT8 Errores PT9 (11 vectores) 0 % error medio PT9 Errores PT10 (6 vectores) 1.3333 % error medio PT10 Errores PT11 (7 vectores) 0 % error medio PT11 Errores PT13 (4 vectores) 5 % error medio PT13

Porcentaje de error en el diagn´ostico

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´on

12

13

14

15

16

17

18

19

20

Figura 7.16: Errores cometidos en el diagn´ ostico de pacientes sanos al intentar diferenciar los vectores de test entre Parkinson y pacientes sanos considerando los patrones cin´eticos por separado (E = {P, S})

Finalmente, parece que el diagn´ ostico diferencial de Parkinson contra temblor esencial estudiado por patrones separados genera errores parciales menores en todos los casos que el diagn´ostico considerando todos los vectores juntos (diagn´ ostico por patrones de tipo cin´etico). Esto nos lleva a intuir que, en efecto, existe una gran variabilidad entre las naturalezas de los patrones cin´eticos, por lo que el hecho de considerarlos todos juntos equivaldr´ıa a considerar conjuntos de vectores diferentes, como si fueran conjuntos de at´ıpicos. Esto ampliar´ıa las funciones de densidad a lo ancho, aumentando la superposici´on entre los conjuntos borrosos, y complicando en definitiva la clasificaci´on. Estudio de los patrones din´ amicos por separado Con este an´alisis terminamos los resultados de los patrones uno a uno. En total son cuatro los patrones de este tipo, y son id´enticos a algunos de los otros patrones, pero en este caso se aplica una fuerza virtual sobre el extremo del Phantom. Dependiendo de esta fuerza y del tipo de movimiento, podremos conseguir diferenciar con m´as facilidad los distintos tipos de pacientes. El objetivo, como hasta ahora, consiste en determinar cu´al es el patr´on din´amico que nos permita un mejor diagn´ ostico, bas´ andonos en los errores cometidos por la clasificaci´on seg´ un estos patrones. Continuamos aqu´ı con el diagn´ ostico diferencial por parejas, y en las figuras 7.17, 7.18, 7.19 y 7.20 se muestran los resultados de estas parejas. Comenzamos con el diagn´ ostico del temblor esencial contra el Parkinson. Una vez m´as encontramos que el n´ umero de vectores de test que quedan tras la limpieza de at´ıpicos es ´ınfimo: solo nos queda un vector en tres de estos casos, lo que implica una ley de pertenencia basada en solo un elemento. Esto es un resultado p´esimo, pues no nos permite hacernos ninguna idea acerca de la clasificaci´on. A´ un as´ı, en la figura 7.17 se muestra lo que ha generado la simulaci´on tras la aleatorizaci´on de este vector de test. Encontramos para empezar una gran variabilidad, debida a que el diagn´ostico puede ser o bien correcto o incorrecto para un solo vector (0 % de error o 100 %). Sin embargo, el patr´on PT16 siempre est´ a bien diagnosticado. Esto puede deberse a que los Parkinson est´an bien aislados, y por mucho que aleatoricemos el vector de temblor esencial, nunca va a caer en la ley de pertenencia del Parkinson. Esto explicar´ıa que el temblor esencial apareciera de manera muy distinguida respecto del Parkinson en los patrones din´ amicos, y que concretamente el patr´on lineal PT16 permite obtener un buen diagn´ostico. A´ un as´ı, hay que tomar este resultado con prudencia. En el caso del diagn´ ostico de Parkinson frente al temblor esencial encontramos algo parecido (figura 7.18). Aqu´ı se trabaja con alg´ un vector m´ as, y obtenemos que el patr´on lineal PT16 nos permite clasificar mejor que los dem´ as (salvo el PT18 en este caso) los vectores.

7.3 - Clasificaci´ on seg´ un las distribuciones

173

Porcentaje de error en el diagn´ostico

Errores en el diagn´ ostico de Esencial vs. Parkinson. (20 iteraciones) 100 Errores PT15 (1 vectores) 75 % error medio PT15 Errores PT16 (1 vectores) 0 % error medio PT16 Errores PT17 (1 vectores) 55 % error medio PT17 Errores PT18 (2 vectores) 47.5 % error medio PT18

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´ on

12

13

14

15

16

17

18

19

20

Figura 7.17: Errores cometidos en el diagn´ ostico de pacientes de temblor esencial al intentar diferenciar los vectores de test entre temblor esencial y Parkinson considerando los patrones din´ amicos por separado (E = {E, P })

Nota 16: Hip´ otesis a contrastar Al igual que en los patrones cin´eticos, el patr´on lineal ha permitido bajar el error en relaci´on con los otros patrones del mismo tipo. Esto permite plantear la hip´otesis de que, en efecto, los patrones lineales, independientemente de que se trate de patrones cin´eticos o din´amicos, son realizados por los pacientes enfermos de forma tal que el temblor de caracter´ıstico de cada uno se manifiesta de forma distinta, permitiendo el diagn´ostico. Esta hip´ otesis deber´ a ser contrastada cuando se haya conseguido trabajar con un mayor n´ umero de vectores, aumentando la robustez de las leyes de pertenencia a los conjuntos borrosos.

Porcentaje de error en el diagn´ostico

Errores en el diagn´ ostico de Parkinson vs. Esencial. (20 iteraciones) 100 Errores PT15 (7 vectores) 27.8571 % error medio PT15 Errores PT16 (3 vectores) 10 % error medio PT16 Errores PT17 (2 vectores) 17.5 % error medio PT17 Errores PT18 (3 vectores) 0 % error medio PT18

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´ on

12

13

14

15

16

17

18

19

20

Figura 7.18: Errores cometidos en el diagn´ ostico de pacientes de Parkinson al intentar diferenciar los vectores de test entre temblor esencial y Parkinson considerando los patrones din´ amicos por separado (E = {E, P }) Los pacientes sanos, por otra parte, se diagnostican frente al temblor esencial y al parkinson separadamente. En primer lugar, al intentar diferenciar los vectores de test de los pacientes sanos entre los conjuntos borrosos generados por los pacientes sanos y el temblor esencial, se obtienen los resultados de la figura 7.19. Como es de esperar, el temblor esencial debe presentar bastante temblor en la realizaci´on de los

174

Cap´ıtulo 7 - Clasificaci´ on

patrones din´ amicos, mientras que el temblor de los pacientes sanos debe ser muy bajo, pr´acticamente nulo. Esto permitir´ıa diferenciar muy bien los dos conjuntos, lo que los entregar´ıa errores bajos en la clasificaci´ on por l´ ogica borrosa. En efecto, asi ocurre en este caso, en el que el n´ umero de vectores es algo mayor que en los casos anteriores de temblor esencial, dando algo m´as de representaci´on a estos resultados. Se vuelve a repetir que el PT16 es un buen diferenciador del temblor. Otro de los motivos por los que se explicar´ıa esto es que se trata de un patr´on lineal horizontal, permitiendo que el temblor se presente de forma vertical en el eje Y , pudiendo as´ı manifestarse de forma perpendicular al movimiento, lo que a priori es natural. El hecho de que as´ı se pueda manifestar este temblor permite que adquiera m´ as potencia la frecuencia correspondiente al mismo, provocando que las caracter´ısticas relacionadas con el espectro tomen valores m´ as aislados entre la existencia y la no existencia de temblor.

Porcentaje de error en el diagn´ostico

Errores en el diagn´ ostico de Sanos vs. Esencial. (20 iteraciones) 100 Errores PT15 (7 vectores) 7.8571 % error medio PT15 Errores PT16 (6 vectores) 0 % error medio PT16 Errores PT17 (2 vectores) 17.5 % error medio PT17 Errores PT18 (5 vectores) 0 % error medio PT18

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´on

12

13

14

15

16

17

18

19

20

Figura 7.19: Errores cometidos en el diagn´ ostico de pacientes sanos al intentar diferenciar los vectores de test entre temblor esencial y pacientes sanos considerando los patrones din´ amicos por separado (E = {E, S}) En cuanto al diagn´ ostico de los sanos contra el Parkinson, encontramos de nuevo que el patr´on lineal horizontal resulta ser el mejor diferenciador. Adem´as, en este caso el diagn´ostico entre el Parkinson y los pacientes sanos resulta ser complicado, pues el temblor parkinsoniano tender´ıa a desaparecer en este los patrones de tipo din´ amico.

Porcentaje de error en el diagn´ostico

Errores en el diagn´ ostico de Sanos vs. Parkinson. (20 iteraciones) 100 Errores PT15 (7 vectores) 6.8571 % error medio PT15 Errores PT16 (6 vectores) 4.6667 % error medio PT16 Errores PT17 (2 vectores) 56 % error medio PT17 Errores PT18 (5 vectores) 16 % error medio PT18

90 80 70 60 50 40 30 20 10 0

1

2

3

4

5

6

7

8

9

10 11 Iteraci´on

12

13

14

15

16

17

18

19

20

Figura 7.20: Errores cometidos en el diagn´ ostico de pacientes sanos al intentar diferenciar los vectores de test entre Parkinson y pacientes sanos considerando los patrones din´ amicos por separado (E = {P, S}) Por otra parte, parece un com´ un denominador el hecho de que sea el PT17 el patr´on que produce los errores m´ as grandes. Esto, que en principio puede sorprender por el hecho de que el PT16 y el PT17 son

7.3 - Clasificaci´ on seg´ un las distribuciones

175

el mismo patr´ on, se explica por el tipo de fuerza que se aplica al extremo del Phantom. En ambos casos es diferente, y es precisamente esta variaci´on la que hace que los resultados se encuentren en extremos opuestos. Como consecuencia de esto, puede ser interesante volver a realizar las pruebas a los pacientes realizando diferencias en las fuerzas aplicadas sobre cada patr´on, de forma que se obtengan m´as patrones con los que poder realizar la clasificaci´ on. Adem´ as, de esta forma ser´ıa interesante realizar distintos grupos con los que realizar el diagn´ ostico diferencial, tal y como se ha realizado aqu´ı con los patrones est´aticos, cin´eticos y din´ amicos, pero con fuerzas.

176

Cap´ıtulo 7 - Clasificaci´ on

Cap´ıtulo

•••

8

CONCLUSIONES Y TRABAJOS FUTUROS T´ u debes ser el cambio que quieres ver en el mundo Mahatma Ghandi (1869-1948)

Resumen En este trabajo se han probado varias t´ecnicas para tener una visi´on global del problema. Algunas de ellas no se han podido abordar con toda la profuncidad que ser´ıa necesario, lo que supone la apertura de nuevas l´ıneas de investigaci´on en materia de an´alisis de datos de tipo no solo m´edico, sino de cualquier conjunto de puntos y nubes de distintas estructuras.

8.1. 8.1.1.

Conclusiones Sobre las t´ ecnicas empleadas anteriormente

A lo largo de toda la l´ınea de investigaci´on, los distintos participantes se han engcargado de tareas diferentes, pero con un com´ un denominador: la clasificaci´on automatizada emplando t´ecnicas de inteligencia artificial, sobre todo las redes neuronales. Desde la propuesta de los distintos tipos de patr´ on, pasando por la creaci´ on y patente del Dimeter® , las distintas propuestas de las caracter´ısticas del temblor, as´ı como la clasificaci´ on de los datos obtenidos con las mismas, siempre se ha buscado el mismo fin: lograr reducir el error en el diagn´ ostico diferencial entre enfermos de Parkinson, temblor esencial y temblor fisiol´ ogico (pacientes sanos). En todas ellas, se ha buscado lo mismo: realizar un an´alisis de datos para separar nubes de puntos. En general se han obtenido resultados de error en el diagn´ostico aleatorizando los vectores de test y los de entrenamiento. El problema con el que nos hemos encontrado en todos los casos es la presencia de muchos vectores at´ıpicos, y es por eso que los resultados no eran consistentes, o no del todo acertados, pues estos vectores at´ıpicos desviaban los valores de la nube, haciendo converger a los algoritmos hacia lugares que no les correspond´ıa. Tambi´en se estudi´ o el an´ alisis de componentes principales de los datos, intentando encontrar direcciones que aportaran mejor informaci´ on sobre las nubes con menos variables, buscando nuevas variables como combinaciones lineales de las originales. Claro est´a que estas nuevas direcciones encontradas no aportaban la informaci´ on correcta, pues la presencia de los at´ıpicos desviaban las combinaciones lineales de las componentes originales, dando direcciones principales mal orientadas. En cuanto a la convergencia de las redes neuronales sucede lo mismo: si metemos a la red vectores at´ıpicos, el aprendizaje de la misma se va a ver alterado, convergiendo hacia soluciones imprecisas. De manera general, la presencia de vectores at´ıpicos ha sido un factor clave en la obtenci´on de los resultados de los trabajos anteriores. Sin embargo, no solo la presencia de valores fuera de lo normal ha influido en ellos. La falta de una base de datos amplia, con la que poder justificar de manera fiel

177

178

Cap´ıtulo 8 - Conclusiones y trabajos futuros

los resultados del proyecto de investigaci´ on, ha sido y a´ un es el cuello de botella de estos trabajos. No es posible obtener resultados que expliquen el diagn´ostico de enfermedades tan extendidas como el Parkinson o el temblor esencial a partir de siete pacientes de temblor esencial y una veintena de pacientes de Parkinson, que adem´ as no siempre han podido realizar todas las pruebas en las mejores condiciones. Entre la pobreza en el n´ umero de datos, y la calidad de los mismos, los resultados pierden credibilidad. Sin embargo, los m´etodos se han probado con ellos, y si se han obtenido los resultados que se han obtenido, implica que con una probabilidad bastante alta tambi´en funcionen con buenos y abundantes datos, entregando resultados a´ un mejores.

8.1.2.

Sobre las t´ ecnicas aportadas

Analizada la situaci´ on en la que se encontraba la l´ınea de investigaci´on, la planificaci´on de este trabajo se llev´ o a cabo con un solo fin: aportar nuevos puntos de vista del problema, a˜ nadir nuevas herramientas y analizar los resultados anteriores desde una perspectiva diferente. Las matem´ aticas se nos presentan como un lenguaje con el que poder acercarnos a la naturaleza desde la humilde posici´ on de seres humanos. Es nuestra manera de descifrar sus m´as oscuros y a la vez brillantes secretos, y no debe tomarse como tan solo una herramienta. Se trata de una forma de percepci´on objetiva, potente y sutil, y por ello debe guardarse en una caja de herramientas especial y, cuando se utilice, hacerlo con la misma delicadeza con la que ella nos desvela el mundo que estamos estudiando. Hasta ahora se ha trabajado con conceptos matem´aticos como una manera de extraer par´ametros a partir de series temporales. Algunos de estos par´ametros fueron definidos como f´ormulas cuyo resultado supondr´ıa una componente de un vector de la nube de puntos que despu´es se estudiar´ıa. En este trabajo se ha dado una interpretaci´ on a cada una de las caracter´ısticas extra´ıdas de la serie temporal del temblor, dando sentido a la parte en la que se va a basar el resto del proyecto. La serie temporal del temblor es fundamental, a su vez, para la extracci´on de caracter´ısticas con valores fidedignos, y una buena fase de acondicionamiento de las series temporales originales para extraer la parte temblorosa es primordial. En este proyecto se ha afinado en esta etapa de pretratamiento de las series temporales, ajustando los valores y el tipo de filtro empleado para eliminar la parte de baja frecuencia e intentar mostrar los picos temblorosos en el dominio frecuencial Este filtrado especial ha pretendido limpiar lo m´ as posible los datos at´ıpicos producidos anteriormente por un filtrado impreciso, mediante el an´ alisis una por una de las trayectorias filtradas y sin filtrar, para comprobar los resultados del filtro, hasta encontrar la mejor combinaci´on de par´ametros del mismo. Otro aspecto muy importante de este trabajo es el desarrollado en el cap´ıtulo 6, el an´alisis de las caracter´ısticas extra´ıdas de las series temporales. Se han implementado varias t´ecnicas de an´alisis con el fin de tener un buen conocimiento de los vectores con los que estamos trabajando. Estas t´ecnicas de an´alisis han intentado, adem´ as, reducir la dimensi´ on del espacio de trabajo, pues el estudio de tan pocos vectores en un espacio de dimensi´ on tan grando como es IR39 no permite obtener resultados estad´ısticamente aceptables. Gracias a estos an´ alisis se ha bajado hasta IR12 , aunque esta disminuci´on no ha sido el hito m´ as importante logrado aqu´ı. Mediante la observaci´on del problema desde diferentes puntos de vista se ha logrado obtener una muy buena percepci´ on del mismo y, por consiguiente, preparar un firme terreno para la etapa final: la clasificaci´ on. Las t´ecnicas empleadas para el an´alisis de los datos han sido: An´ alisis multivariante mediante diagramas de dispersi´ on bivariante: Esto ha permitido obtener una primera vista de p´ ajaro de los datos. Gracias a ´esto se han podido plantear los dem´as m´etodos de an´ alisis, lo que lo convierte en la piedra angular de la etapa de an´alisis de las caracter´ısticas. An´ alisis de componentes principales: Gracias a esta parte se ha conseguido obtener otra visi´on de la estructura de las nubes de datos. Se ha podido observar c´omo est´an distribuidos los puntos, cu´ antas direcciones dominantes hay y cu´antas de ellas son esenciales para la extracci´on de los datos de las nubes. Adem´ as, este an´ alisis nos ha permitido darnos cuenta de que hay algunas direcciones donde la variabilidad es muy baja, por lo que no aportan gran informaci´on respecto del conjunto de datos. An´ alisis de las distribuciones: Esta ha supuesto la rama principal de la investigaci´on. La idea desde el principio era estudiar las distribuciones de probabilidad que ten´ıan los distintos tipos de paciente para las caracter´ısticas extra´ıdas de las trayectorias descritas por ellos en las pruebas. De esta manera, se podr´ıa realizar una comparaci´on de estas distribuciones y ver los valores t´ıpicos de cada uno de ellos, con el fin de aceptar o rechazar las caracter´ısticas seg´ un su capacidad de diferenciar a

8.2 - Trabajos futuros

179

los pacientes. Este an´ alisis ser´ a el que se emplee para realizar el diagn´ostico diferencial empleando l´ ogica borrosa sobre las caracter´ısticas seleccionadas. Eliminaci´ on de puntos at´ıpicos: Suponen el cuello de botella de la investigaci´on, y hab´ıa que hacer algo con ellos para avanzar. Se trata de puntos que desestructuran la nube principal, desviando los par´ ametros de las distribuciones que las definen, as´ı como los valores estad´ısticos que nos permiten tener una idea de estas nubes. Los vectores at´ıpicos pueden estar aislados o en subconjuntos, lejos o cerca, y el concepto de kurtosis nos ha permitido detectarlos y eliminarlos de las nubes de puntos. No obstante, el algoritmo implementado no siempre detecta algunos puntos, una peque˜ na sutilieza que debe realizarse a mano, mediante criterios preestablecidos. La eliminaci´on de los vectores at´ıpicos ha sido otra piedra angular en el desarrollo de este proyecto, y ha permitido obtener mejores resultados que aquellos obtenidos anteriormente. Clustering mediante algoritmos gen´ eticos: el objetivo de esta parte era detectar las combinaciones de caracter´ısticas que generaban nubes de puntos m´as disjuntas. La medida del solape de estas nubes de puntos se llevar´ıa a cabo mediante el error producido en el clustering de un algoritmo gen´etico para encontrar las agrupaciones. Sin embargo, ha resultado que la estrucura de datos con la que se trabajaba estaba muy solapada y era muy irregular, por lo que el algoritmo apenas s´ı converg´ıa hacia una soluci´ on aceptable. El problema estaba en la funci´on objetivo, pero por la falta de tiempo no ha podido corregirse. Se deja como una nueva l´ınea de investigaci´on, abierta para mejorar la selecci´ on de las caracter´ısticas y realizar una clasificaci´on por l´ogica borrosa a partir de la distancia a los conuntos. Adem´ as se ha propuesto la generaci´ on de nuevos vectores sint´eticos a partir de los datos existentes sin cambiar los par´ ametros de las distribuciones de cada una de las caracter´ısticas de los grupos de pacientes. Esta ampliaci´ on en el n´ umero de puntos permitir´a obtener resultados m´as aceptables, impulsando nuevamente la l´ınea de investigaci´ on. Finalmente, sobre la etapa de clasificaci´on hay que decir que los resultados, aunque excepcionales en los mejores casos, son aceptable con precauci´on. El n´ umero de vectores con los que se ha podido trabajar en la mayor´ıa de los casos ha sido muy bajo, lo suficiente como para que el c´alculo de las distribuciones diste de ser aceptable. Sin embargo, se ha podido mostrar el m´etodo, y que aunque el n´ umero de datos empleados sea bajo, al ser el procedimiento de la l´ogica borrosa independiente del n´ umero de datos, sino de las curvas de distribuci´ on obtenidas de los mismos, funciona muy bien gracias al concepto aqu´ı introducido del solape como factor de ponderaci´ on de las caracter´ısticas. Esto ha permitido tener m´as en cuenta las caracter´ısticas menos solapadas y, por lo tanto, las que mayor diferenciaci´on entre los grupos generan. En definitiva, se ha aplicado un m´etodo hipot´etico-deductivo, obteniendo conclusiones a partir de unos resultados mediante la comparaci´ on de los mismos con las premisas de partida, as´ı como una metodolog´ıa de la investigaci´ on basada en la observaci´on del problema desde diferente puntos de vista, la autocr´ıtica y el trabajo impulsado por un u ´nico objetivo, el de encontrar un nuevo camino hacia la meta.

8.2. 8.2.1.

Trabajos futuros Mejorar la caracterizaci´ on

Pr´ acticamente todos los que hemos trabajado en este proyecto hemos visto la necesidad de crear nuevas variables a partir de las series temporales del temblor. El fin era encontrar nuevas caracter´ısticas que nos permitieran diferenciar un tipo de paciente del resto, a pesar de aumentar el espacio de caracter´ısticas. Esto nos ha ayudado a observar al temblor como una entidad rica en informaci´on, que puede ser vista desde diferentes perspectivas, extrayendo distinta informaci´on del mismo. Es el tipo de informaci´on que se extrae del temblor lo que nos da la oportunidad de encontrar componentes que ayuden a diferenciar, o que complementen a otras ya existentes para obtener mejores resultados. A pesar de parecer un espacio de caracter´ısticas muy grande, treinta y nueve variables son tantas como intuiciones ha habido en los investigadores, y por lo tanto este proceso de creatividad, de enysayo y error queda justificado por la propia actitud exploradora del individuo. Si cada uno de los que hemos creado nuevas caracter´ısticas lo hemos hecho ha sido porque el planteamiento que ten´ıamos cada uno del problema era diferente. Algunos vieron la necesidad de cambiar completamente el espacio de caracter´ısticas, otros de a˜ nadir un par de ellas, y otros de realizar combinaciones lineales entre todas. En este proyecto se ha intentado trabajar con la mayor´ıa de las que se han definido, buscando pistas sobre cu´ ales entre todas son las mejores. Se han a˜ nadido las caracter´ısticas de

180

Cap´ıtulo 8 - Conclusiones y trabajos futuros

entrop´ıa porque se esperaban resultados que permitieran obtener curvas de distribuci´on poco superpuestas, porque la l´ınea que se hab´ıa establecido estaba basada en estas curvas de distribuci´on. Tal vez otra persona que intente trabajar con conjuntos y aglomeramiento decide crear caracter´ısticas que le permitan obtener parejas muy distintas, para obtener proyecciones de las nubes sobre ´estas muy disjuntas, pero en definitiva adaptar´ a sus t´ecnicas a la meta que persigue. Todo el espacio de caracter´ısticas es rico en informaci´on, al menos desde un punto de vista conceptual, pues a nivel pr´ actico depende de la metodolog´ıa que cada uno decida emplear. Sin embargo, se ha podido comprobar que algunas de las caracter´ısticas generan diagramas de dispersi´ on bivariante muy superpuestos para los tres tipos de paciente, lo que plantea la hip´otesis de si estar´ an correctamente calculadas, o de si los m´etodos de c´alculo son los apropiados. Me refiero a las caracter´ısticas relacionadas con la estad´ıstica de orden superior, para las que se ha empleado Matlab® como software de c´ alculo con unas funciones de la toolbox hosa, a las que s´ı es cierto que se les ha pasado los par´ ametros escogidos como mejores, pero la cuesti´on es si el algoritmo de c´alculo es el mejor estimador de estos estad´ısticos de orden superior. No obstante, las mejoras en caracterizaci´on tienen unas fronteras bien definidas, y tampoco parece haber mucho juego en este aspecto. Tan solo la creaci´on de nuevas caracter´ısticas podr´ıa aportar valor a˜ nadido en esta etapa, siempre y cuando sean coherentes con la metodolog´ıa empleada en el proyecto correspondiente.

8.2.2.

El problema del aglomeramiento y la clasificaci´ on por distancia a conjuntos

El planteamiento inicial de este proyecto se basaba en la utilizaci´on de los algoritmos gen´eticos como herramienta de clasificaci´ on de los conjuntos de vectores. Sin embargo, la idea que se ten´ıa al principio consist´ıa en encontrar las agrupaciones de las nubes de puntos de cada conjunto de pacientes de manera artificial para despu´es calcular la probabilidad de pertenencia de cada punto al conjunto. Sin embargo, al iniciarse el proyecto no se ten´ıa acceso a las nubes de puntos reales, por lo que se generaron puntos sint´eticos para poder ir avanzando en el proceso. Los puntos se generaron de forma aleatoria dentre de un cuadrado, cubo o hipercubo, con el fin de encontrar una primera aproximaci´on al problema del clustering. En el momento en que se obtuvieron los datos reales, el plantemiento cambi´o de reumbo de forma inmediata, pues se vio que el an´ alisis de las curvas de diistribuci´on pod´ıa ser un camino m´as interesante e intuitivo que el an´ alisis de los conglomerados de nubes de puntos tan dispersas, correladas y superpuestas, y se dejaron los algoritmos gen´eticos en un segundo plano, como una herramienta de an´ alisis de las caracter´ısticas m´ as interesantes. Sin embargo, el algoritmo gen´etico se program´o para nubes esf´ericas, lo que dista mucho de la estructura real de los datos. Por ello, se propone como trabajo futuro el estudio del problema del clustering con nubes de puntos de este tipo de estructura, lo cual es complicado. Como se propuso en el cap´ıtulo 6, el cambio de la funci´ on objetivo por una que tenga en cuenta la estructura de las nubes de puntos, como es la distancia Mahalanobis, puede ser interesante ya que los datos est´an con mucha frecuencia muy correlados.

´ndice Ape

•••

A

ESTAD´ISTICA DE ORDEN SUPERIOR Resumen Aqu´ı se expone una breve introducci´on, a modo de recopilaci´on de la bibliograf´ıa, de los momentos y cumulantes, necesarios para la estad´ıstica de orden superior empleada en el cap´ıtulo 5

Los procesos aleatorios, a pesar de no tener un modelo exacto que los describan, se pueden estudiar conociendo sus propiedades estad´ısticas. Las herramientas de estad´ıstica b´ asicas, como lla media, la varianza, la correlaci´on o la covarianza, ofrecen buena informaci´ on sobre los procesos, pero es posible exprimir a´ un m´as esta informaci´on gracias a la estad´ıstica de orden superior.

A.1.

Momentos

La ley de probabilidad de una variable aleatoria puede venir dada por su funci´on de distribuci´ on o por su funci´ on de densidad, si es continua. Existe otra funci´on que permite caracteriizar esta ley de probabilidad, la funci´ on caracter´ıstica. La funci´ on caracter´ıstica de una variable aleatoria se define como   Φx (ω) = E ejωx

(A.1)

´ Esta es una funci´ on del n´ umero real −∞ < ω < ∞. Si la expresamos en t´erminos de una funci´ on de densidad, Φx (ω) es la transformada de Fourier de fx (x):

Φx (ω) =

Z∞

fx (x)e−jωx dx

(A.2)

−∞

De esta manera, conocida la funci´ on caracter´ıstica, se puede obtener la funci´on de densidad a partir de la transformada inversa de Fourier. Por una diferenciaci´on de Φx (ω), n veces con respecto a ω, el momento de orden n viene dado por dn Φx (ω) µn = (−j) dω n n

(A.3) ω=0

La ventaja de utilizar la funci´ on caracter´ıstica para generar los momentos es que ´esta siempre existe [Ju´ arez et al., 2003]. La generaci´ on de los momentos materializa con la funci´on generadora de momentos, definida como Mx (ν) = E [eνx ]

181

(A.4)

182

Ap´ endice A - Estad´ıstica de orden superior

con ν un n´ umero real −∞ < ν < ∞. De aqu´ı se desprende Mx (ν) =

Z∞

fx (x)eνx dx

(A.5)

−∞

y los momentos se relacionan con ´esta de la forma dn Mx (ν) µn = (−j) dν n n

(A.6) ν=0

´ Esta funci´ on generadora de momentos no siempre existe, lo que supone una desventaja. Sin embargo, la funci´ on generadora de momentos de la suma de variables aleatorias es el producto de las funciones generadoras de momentos de cada una de las variables aleeatorias por separado: i h Mx+y (ν) = E eν(x+y)

= E [eνx eνy ] i h i h = E eν(x) E eν(y)

(A.7)

= Mx (ν)My (ν)

A.2.

Cumulantes

Estas caracteristicas de alto orden proporcionan informaci´on especialmente valiosa de los datos o se˜ nales. Los cumulantes dan la cantidad de correlaci´on de alto orden y la medida de la desviaci´on de la gaussianidad de un proceso. Sean ν = col(ν1 , ν2 , ν3 , . . . , νk ) y x = col(x1 , x2 , x3 , . . . , xk−1 ) colecciones de variables aleatorias. El cumulante de k-´esimo orden est´ a definido como los coeficientes de col(ν1 , ν2 , ν3 , . . . , νk ) en la expansi´on de la serie de Taylor de la funci´ on generadora de cumulantes: n 0 o K(ν) = ln E ejν x (A.8) defini´endose as´ı el cumulante de k-´esimo orden en t´erminos de los momentos acoplados de orden mayor a k. De esta forma, los momentos se relacionan con los cumulantes [Vi˜ nas, 2003] de la forma cx (I) = cum [x1 , x2 , . . . , xk ] =

k X q=1

(−1)q−1 (q − 1)!

X Y

mx (I)

(A.9)

P ∈Pq I∈P

Con Pq una partici´ on q del conjunto de variables aleatorias pertenecientes a la selecci´on I de variables aleatorias de x = (x1 , x2 , . . . , xk ) A partir de esta ecuaci´ on se obtienen los cumulantes de primer, segundo, tercer y cuarto orden: c1x (I)

= E [x1 ]

(A.10)

c2x (I)

= E [x1 x2 ] − E [x1 ] E [x2 ]

(A.11)

c3x (I)

= E [x1 x2 x3 ] − [E [x1 ] E [x2 x3 ] + E [x2 ] E [x1 x3 ] + E [x3 ] E [x1 x2 ]] +

(A.12)

= E [x1 x2 x3 x4 ] − E [x1 ] E [x2 x3 x4 ] − E [x2 ] E [x1 x3 x4 ] + E [x3 ] E [x1 x2 x4 ] −

(A.13)

+2E [x1 ] E [x2 ] E [x3 ]

c4x (I)

−E [x4 ] E [x1 x2 x3 ] − E [x1 x2 ] E [x3 x4 ] − E [x1 x3 ] E [x2 x4 ] − E [x1 x4 ] E [x2 x3 ] + +2E [x1 ] E [x2 x3 ] E [x4 ] + 2E [x2 ] E [x1 x3 ] E [x4 ] + 2E [x3 ] E [x1 x2 ] E [x4 ] +

+2E [x3 ] E [x1 x4 ] E [x2 ] + 2E [x2 ] E [x3 x4 ] E [x1 ] + 2E [x3 ] E [x2 x4 ] E [x1 ] − −6 [E [x1 ] E [x2 ] E [x3 ] E [x4 ]]

Para m´ as informaci´ on sobre los cumulantes, se recomienda la referencia [Vi˜ nas, 2003]

(A.14)

´ndice Ape

•••

B

´ ANALISIS MULTIVARIANTE Resumen Aqu´ı se expone una breve s´ıntesis de los conceptos m´ınimos necesarios para poder seguir con facilidad el contenido de este proyecto. Se presuponen al lector unos conocimientos m´ınimos de ´ algebra y estad´ıstica.

B.1.

Introducci´ on

En este ap´endice se muestra una serie de resultados de an´alisis de datos multivariante que han sido de gran utilidad para el desarrollo de este proyecto. La mayor parte se ha extra´ıdo de [Pe˜ na, 2002], aunque se ha sintetizado s´ olo la parte m´ as interesante e imprescindible para la comprensi´on de las matem´aticas que en este trabajo se emplean.

B.2.

´ Algebra matricial

B.2.1.

Autovalores y autovectores

Dada una matriz cuadrada, existen determinadas propiedades que deber´ıan permanecer invariantes ante transformaciones lineales, ya que, en definitiva, en una matriz se est´an representando datos y pese a transformarlos de una manera o de otra, debe de existir alguna esencia de los mismos. La idea es manejar un indicador de las medidas b´asicas de una matriz, invariante ante rotaciones o cambios de coordenadas. Pues bien, los autovalores o valores propios de una matriz son aquellos escalares que, al multiplicar a un vector, producen el mismo efecto sobre ´este que si estuviera multiplicando la propia matriz, esto es: Av = λv

(B.1)

Llamamos autovalor al escalar λ y autovector a v. Para calcular los autovalores y los autovectores podemos escribir B.1 como (A − λI) v = 0, que es un sistema que tendr´ a soluci´ on no nula solo si la matriz (A − λI) es singular, es decir, tiene determinante cero. Esto es, hay que resolver la ecuaci´ on caracter´ıstica del sistema |A − λI| = 0

(B.2)

Las ra´ıces de esta ecuaci´ on de orden n son los autovalores de la matriz A, y a cada uno de estos valore propios podemos asociarle un vector propio que satisface B.1, y calcularlo resolviendo el sistema. En el caso de que existan n valores propios distintos, se demuestra que los autovectores son linealmente independientes.

183

184

B.2.2.

Ap´ endice B - An´ alisis multivariante

Ra´ız cuadrada de una matriz semidefinida positiva

Decimos que una matriz es semidefinida positiva cuando se cumple que para cualquier forma cuadr´atica formada a partir de ella es no negativa para cualquier vector x 6= 0, esto es: x0 Ax ≥ 0

(B.3)

Una matriz cuadrada, sim´etrica y semidefinida positiva puede siempre [Pe˜ na, 2002] ser descompuesta en el producto de una matriz por su traspuesta A = HH0 , debido a la descomposici´ on espectral de la matriz A. Si tomamos H = UD /2 U0 , donde U es una 1 matriz ortogonal y contiene los vectores propios de A, y D /2 es una matriz diagonal cuyos elementos son las ra´ıces cuadradas de los autovalores de A 1

B.3.

An´ alisis estad´ıstico

Consideraremos que se han realizado varias observaciones de un conjunto de variables y que queremos extraer informaci´ on de este conjunto de datos. En la sociedad de la informaci´on en la que vivimos hay una cantidad desmesurada de datos que, en esencia, representan informaci´on. El problema viene cuando se quiere abordar el problema de extraer esta esencia: basta pensar en el n´ umero de variables para darse cuenta que es imposible hacerlo ‘‘a mano’’. Tenemos que buscar m´etodos para obtener la estructura de los datos y resumir la informaci´ on de los mismos para que en nuestra limitaci´on como humanos podamos comprender qu´e es lo que tenemos entre manos. Supondremos que hemos tomado p elementos compuestos por n variables. Podemos representar todas estas muestras en la matriz de datos, cuyas filas representan la muestra y las columnas representan las n variables que se han medido de cada una de los elementos: 

x11

 x  21  .  .  . X=   xi1   .  ..  xn1

x12

···

x1j

···

x22 .. .

··· .. .

x2j .. .

··· .. .

xi2 .. .

··· .. .

xij .. .

··· .. .

xn2

···

xnj

···

x1m



 x2m   ..   .    xim   ..  .   xnm

A cada una de las filas de la matriz (cada una de las muestras) la llamaremos individuo, y ´este 0 representar´ a un punto en IRm , y lo notaremos por x = (x1 , x2 , . . . , xj , . . . , xm ) .

B.3.1.

An´ alisis univariante

Para poder abordar el an´ alisis multivariante, primero hay que tener en cuenta que consiste en analizar cada variable por separado y de las relaciones entre ellas. Por ello, aqu´ı se exponen las f´ormulas del an´alisis univariante desde las que se desprender´ an las bases en el an´alisis multivariante. Si tenemos una variable escalar, xj , y tenemos n muestras de esta variable, podemos calcular su media como n

xj =

1X xij n i=1

(B.4)

que para una variable num´erica, como es el caso que se aborda en este proyecto, es el centro de gravedad de los datos. Conviene tambi´en tener una medida de la variabilidad con respecto a esta media del conjunto de los datos, a saber, la desviaci´ on t´ıpica, definida como v n uX u 2 u (xij − xj ) t i=1 (B.5) sj = n

B.3 - An´ alisis estad´ıstico

185 2

donde di j = (xij − xj ) es la desviaci´on de uno de los datos respecto de la media. Otra medida interesante es el coeficiente de asimetr´ıa, definido como

Aj =

1 n

n X i=1

(xij − xj )

3

(B.6)

s3j

y que toma el valor cero para una variable perfectamente sim´etrica, y valores mayores que uno para variables con una asimetr´ıa considerable. Existe una medida importante por dar idea de la homogeneidad de los datos independientemente de las unidades de medida (es adimensional), que se define como n

Hj =

2 1X dij − s2j n i=1 s4j

(B.7)

y lo llamamos coeficiente de homogeneidad. A partir de este se puede obtener [Pe˜ na, 2002] el coeficiente de kurtosis, que se define como

Kj =

1 n

n X i=1

4

(xij − xj ) s4j

(B.8)

que tomar´ a valores mayores o igual a uno. Es un coeficiente importante porque da una idea de la variabilidad de las desviaciones. Por ejemplo, si existen algunos datos at´ıpicos (ver secci´on B.4) muy alejados de la media, el coeficiente de kurtosis ser´a un valor mucho mayor que uno, mientras que si todos los datos est´ an desviados de manera muy parecida, este coeficiente tender´a a uno.

B.3.2.

An´ alisis multivariante

Los coeficientes estudiados en el apartado anterior pueden ser generalizados a m´as de una variable. Algunos de ellos se generalizan convirti´endolos en un vector de m elementos cuyos valores son los coeficientes de cada variable por separado, y en otros casos se trata de definiciones menos triviales. Vector de medias La medida de centralizaci´ on m´ as utilizada es el vector de medias, de dimensi´on m cuyas componentes son las medias de cada una de las m variables: 

x1



  x   2  .   .  n  .  1X  x= xi =    n i=1  xj     .   ..    xm

(B.9)

Matriz de varianzas y covarianzas En el caso univariante, la medida de la variablilidad de las desviaciones Pncon respecto2 a la media se i=1 (xij − xj ) . Se define la denomina desviaci´ on t´ıpica, y su cuadrado es la varianza, esto es, s2j = n covarianza entre dos variables xj y xk como n

s2jk

1X = (xij − xj ) (xik − xk ) n i=1

(B.10)

186

Ap´ endice B - An´ alisis multivariante

Se define la matriz de covarianzas a partir de este concepto, relacionando las variables de dos en dos mediante la covarianza de ambas: n

S=

1X (xi − x) (xi − x) n i=1

(B.11)

De forma expandida, la matriz de covarianzas tiene la forma 

s21

 s  21  .  .  . S=   sj1   .  ..  sm1

···

s1j

···

··· .. .

s2j .. .

··· .. .

sj2 .. .

··· .. .

s2j .. .

··· .. .

sm2

···

smj

···

s12 s22 .. .

s1m



 s2m   ..   .    sjm   ..  .   s2m

(B.12)

Coeficiente de correlaci´ on La dependencia lineal entre pares de variables se estudia mediante el coeficiente de correlaci´ on lineal. Si tenemos dos variables, xj y xk , el coeficiente de correlaci´on lineal, r, se calcula como rjk =

sjk sj sk

(B.13)

y tiene las propiedades siguientes: 1. 0 ≤ |rjk | ≤ 1 2. rjk es invariante ante transformaciones lineales de las variables 3. Si existe una dependencia lineal entre las variables, entonces rjk = 1 Con esta definici´ on, la matriz S se puede escribir como 

s21

 r s s  21 1 2  ..   .  S=  rj1 s1 sj   ..  .  rm1 s1 sm

···

r1j s1 sj

···

··· .. .

r2j s2 sj .. .

··· .. .

rj2 s2 sj .. .

··· .. .

s2j .. .

··· .. .

rm2 s2 sm

···

rmj sj sm

···

r12 s1 s2 s22 .. .

r1m s1 sm



 r2m s2 sm    ..   .   rjm sj sm    ..  .  2 sm

(B.14)

Distancia Mahalanobis Una manera tambi´en v´ alida para estudiar a variabilidad de los individuos es utilizar el concepto de distancia entre ellos. En el caso de una sola variable, la distancia eucl´ıdea entre un individuo y la media q 2

del resto es di = (xi − x) , que se corresponde con el valor absoluto de la diferencia. Para generalizar el concepto de distancia de un individuo multivariable a la media de una familia de puntos en IRm , hace falta definir la distancia en IRm . Definici´ on 36. Dados dos puntos xh y xi en IRm , se define la distancia eucl´ıdea como la funci´ on d : IRm × IRm −→ IR+ que satisface: 1. d(xi , xi ) = 0

∀i.

B.3 - An´ alisis estad´ıstico

187

2. d(xh , xi ) = d(xi , xh ). 3. d(xh , xi ) ≤ d(xh , xp ) + d(xp , xi ) (desigualdad triangular). y que viene dada por dhi =

q

0

(xh − xi ) (xh − xi )

(B.15)

Es importante darse cuenta de que esta distancia depende de las unidades de medida, y tiene un sentido esf´erico en cuanto a las distancias respecto de la media. Es por estos motivos que se busca una m´etrica independiente de las unidades y sensible a las correlaciones entre los puntos, no a su media. Esta idea queda mejor reflejada en el siguiente ejemplo: Imaginemos que queremos hacer un estudio sobre la complexi´on de los habitantes de Espa˜ na. Representaremos la altura frente a la talla de los zapatos, y tomaremos cincuenta muestras de entre toda la poblaci´ on. Ambas variables est´an correladas (una persona alta, en general, tiene pies grandes, y una baja, pies peque˜ nos). Se trata de encontrar una medida de c´omo de parecidos son dos personas entre ellas teniendo en cuenta al conjunto. En la figura B.1 se puede ver esta idea. Se busca una m´etrica que nos diga que la distancia entre A y B es menor que la que hay entre B y C, puesto que A y B son claramente m´ as cercanos a lo general. De esta manera, C ser´ıa considerado un at´ıpico por estar ‘‘lejos’’ de los dem´as seg´ un esta nueva m´etrica. 0,4

Altura

0,2

B

0 C −0,2 A −0,4 −0,4

−0,2

0

0,2

0,4

Talla de zapatos

Figura B.1: Relaci´ on entre la talla de zapatos y la altura Se define as´ı la distancia Mahalanobis entre un punto y su vector de medias: q 0 di = (xi − x) S−1 (xi − x)

(B.16)

Cuando el coeficiente de correlaci´ on es nulo, r = 0, entonces la distancia Mahalanobis se reduce a a calcular la distancia eucl´ıdea estandarizada por la matriz de covarianzas. Cuando r 6= 0 se a˜ nade un t´ermino adicional que es positivo (separando los puntos) cuando las diferencias entre las variables tienen el mismo signo (r > 0), o distinto signo (r < 0).

B.3.3.

Estandarizaci´ on multivariante

e definida como Sea la matriz de datos centrados X   1     1 e = X −   x0 X  ..  .   1

Sea una matriz S definida positiva. Por B.3 puede definirse su ra´ıs cuadrada como

(B.17)

188

Ap´ endice B - An´ alisis multivariante

S /2 = UD /2 U0 1

1

1

Siendo U la matriz de autovectores y D /2 una matriz diagonal cuyos elementos son las ra´ıces cuadradas de los autovalores de S. Entonces la variables y tiene media cero y matriz de covarianzas la identidad (ver [Pe˜ na, 2002], p´ ag. 114) y = S− /2 (x − x) 1

y se llama estandarizaci´ on multivariante de x. La nueva muestra estandarizada ser´a

B.4.

e −1/2 Y = XS

Identificaci´ on de at´ıpicos

El an´ alisis de la homogeneidad de una muestra es muy importante, pues pueden existir valores esp´ ureos que est´en deslocalizando la media o la matriz de covarianzas. Estos valores esp´ ureos deber´ıan ser detectados y eliminados de la muestra para obtener una mejor estimaci´on de las variables que se est´an analizando. Estos valores esp´ ureos son los denominados at´ıpicos, y pueden haber sido causados por fallos en las mediciones. Se define dato at´ıpico (seg´ un [Pe˜ na, 2002]) como aquellas observaciones que parecen haberse generado de forma distinta al resto de datos. La caracterizaci´ on de un valor at´ıpico es intuitiva: ser´a aquel que, de una manera o de otra, est´e lejos del centro de los datos en comparaci´ on con el resto de puntos. Sin embargo, si nos fijamos de nuevo en la figura B.1, el valor C no est´ a m´ as lejos que el valor A del centro de los datos. Incluso est´a m´as cerca que los valores correlados m´ as lejanos. De la cualidad de la distancia eucl´ıdea de no tener en cuenta la estructura de los datos se deduce que no es un buen sistema para calificar a los datos como at´ıpicos, pues se podr´ıan obtener errores con relativa facilidad. La consecuencia fundamental de los valores at´ıpicos es la distorsi´on de los datos. Si tenemos una nube de puntos muy centrada (poco correlada) entre cuyos elementos encontramos uno que est´a muy alejado del centro de esta nube, estar´ıa distorsionando la correlaci´on, pues r ya no estar´ıa cerca de cero, sino que tender´ıa a dar una idea de recta en direcci´on desde el centro de la nube al punto at´ıpico. La misma distorsi´ on se produce sobre el vector de medias o sobre el coeficiente de kurtosis, que tomar´a un valor considerablemente mayor que uno.

B.4.1.

Identificaci´ on de at´ıpicos

Parece sensato que, para obtener estimadores fiables, se limpie la muestra de at´ıpicos y se calculen dichos estimadores con los individuos ‘‘buenos’’. Los estimadores que se buscan son el vector de medias y la matriz de covarianzas sin distorsiones, a partir de los cuales se calcular´an las distancias de la muestra con contaminaci´ on de at´ıpicos para verificar que, efectivamente, lo son. Esta idea puede parecer incongruente, ya que a priori no se conocen los at´ıpicos, pero veremos que s´ı es factible. Teniendo en cuenta que trabajamos en varias dimensiones, la distancia Mahalanobis no es un buen recurso, ya que los at´ıpicos distorsionar´ an la media y las covarianzas, pudiendo se˜ nalar a puntos que no son at´ıpicos como tales. Para evitar este problema, se proyectar´an los puntos en distintas direcciones, en una de las cuales se ver´ an bien diferenciados estos valores at´ıpicos. Hay varias maneras de generar estas direcciones ([?], [?]), pero aqu´ı nos centramos en la soluci´on propuesta por [?], que consiste en tomar aquellas direcciones que maximicen la kurtosis pues, como se ha visto, este factor se ve muy afectado por este tipo de valores esp´ ureos. Tambi´en se consideran las direcciones de m´ınima kurtosis, pues la posible existencia de clusters1 . La idea es buscar m direcciones ortogonales de m´axima kurtosis, y m de m´ınima kurtosis, eliminar los datos extremos (provisionalmente), calcular la matriz de covarianzas y el vector de medias con los datos limpios y evaluar a los sospechosos con la distancia Mahalanobis  calculada a partir de las muestras limpias. Si tenemos una muestra X =

x1 algoritmo (se ha extra´ıdo de [Pe˜ na, 2002]): 1 Cluster:

x2

...

xi

...

0

un el siguiente xn , se proceder´a seg´

Del ingl´ es, literalmente se traduce como ‘‘racimo’’, ‘‘conjunto’’ o ‘‘grupo’’

B.4 - Identificaci´ on de at´ıpicos

189

1. Sean x y S el vector de medias y la matriz de  covarianzas de X. Se estandarizar´ an los datos de forma  0

multivariante (ver B.3.3) para obtener Z = z1 z2 . . . zi . . . zn , con zi = S− /2 (xi − x), matriz de covarianzas identidad y vector de medias nulo. Hacemos j = 1. 1

2. Calcularemos ahora la direcci´ on dj con norma unidad que maximiza el coeficiente de kurtosis (j) (j) univariante de los datos proyectados. Llamaremos yi = d0j zi a la proyecci´on de zi sobre la direcci´ on dj . Esta direcci´ on se obtiene como se indica en [Pe˜ na, 2002] (p´ag. 131). 3. Se proyectan ahora los datos sobre un subespacio de dimensi´on m − jdefinido como el subespacio ortogonal a la direcci´ on dj . Para ello, tomamos z(j+1) = I − dj d0j z(j) . Ahora incrementamos j = j + 1. 4. Repetimos (2) y (3) hasta obtener las m direcciones, d1 , . . . , dm . 5. Repetimos (2) y (3) esta vez minimizando la kurtosis en lugar de maximizarla en (2) para obtener las otras m direcciones dm+1 , . . . , d2m . 6. Considerar como sospechosos aquellos individuos que en alguna de estas 2m direcciones verifiquen  (j) yi − med y (j)  >5 meda y (j)

Tras haber identificado a los sospechosos, se apartan de la muestra y se vuelve al paso (1) y se repite el proceso hasta que no se detecten m´ as at´ıpicos o hasta que se hayan eliminado, por ejemplo, el 40 % de los puntos. Al finalizar el algoritmo anterior, se recalculan el vector de medias, xR , y la matriz de covarianzas, SR , y se calcula la distancia Mahalanobis de cada uno de los sospechosos. Por el criterio expuesto en [Pe˜ an at´ıpicos aquellos puntos cuya distancia a la media xR sea superior a m + √ na, 2002], se considerar´ 3 2m, esto es: q √ 0 dR (xi , xR ) = (xi , xR ) S−1 (B.18) R (xi , xR ) > m + 3 2m Tras eliminar definitivamente los at´ıpicos, se calcular´a ell vector de medias final, xf y la matriz de covarianzas final Sf .

190

Ap´ endice B - An´ alisis multivariante

´ndice Ape

•••

C

TABLAS Los d´ıas pasan, pero no me importa Alg´ uno de Sagunto

Resumen En este ap´endice se presentan algunas tablas que, bien por no ser imprescindibles para la lectura del texto, o por ser demasiado grandes, se ha decidido incluirlas en un apartado dedicado en exclusiva para ellas.

C.1.

Tablas relacionadas con los datos Tabla C.1: Tablas indicando el n´ umero de pruebas realizadas por cada grupo de pacientes

(a) N´ umero de veces que se realizaron las pruebas est´ aticas

(b) N´ umero de veces que se realizaron las pruebas din´ amicas

Din´ amicos

Est´ aticos PT1

PT2

T. Esencial

12

10

Parkinson

69

47

Sanos

53

36

Total

134

93

PT15

PT16

PT17

PT18

T. Esencial

7

7

5

9

Parkinson

46

43

32

65

Sanos

36

36

34

61

Total

89

86

71

135

(c) N´ umero de veces que se realizaron las pruebas cin´eticas

Cin´ eticos PT3

PT4

PT5

PT6

PT7

PT8

PT9

PT10

PT11

PT12

PT13

PT14

T. Esencial

12

2

10

10

4

14

12

10

10

1

10

2

Parkinson

45

46

45

68

62

45

44

Sanos

37

10

38

38

20

65

64

38

36

10

19

10

Total

94

12

94

93

24

147

138

93

90

11

51

12

191

22

192

Ap´ endice C - Tablas

C.2.

Notaci´ on para los algoritmos gen´ eticos Tabla C.2: Simbolog´ıa empleada para la descripci´ on del algoritmo gen´etico

Nombre

S´ımbolo

Posible ´ındice

Notaci´ on con ´ındice

Caracter´ıstica o componente

x

1, 2, . . . , p

xp

Punto

x

1, 2, . . . , n

xi

Puntos (grupo)

X

Subpaciente

w

Subpacientes (grupo)

W

Subindividuo

t

1, 2, . . . , t

tk

1×p

Individuo

T

1, 2, . . . , p

Tp

t×p

Familia

F

1, 2, . . . , p/f

Fl

f ×t×p

Poblaci´ on

P

Generaci´ on H

Historial parcial

e H

Distancias totales



Distancias comparar

e ∆

Asignaci´ on Mejor individuo Mejor resultado de la funci´ on objetivo

A b P

Funci´ on de asignaci´ on

b P

Funci´ on objetivo parcial

φ

Funci´ on objetivo global

Φ

Funci´ on mejor individuo

ξ (P)

Funci´ on mejor resultado de la funci´ on objetivo

η (P)

α

1×p n×p

1, 2, . . . , q

ws

1×p s×p

p×t×p 1, 2, . . . , γ

Historial

Dimensi´ on (si matriz)

Pg (v.g.) G×1 G×t p×1 p×t G×n t×m p×t×p

C.3 - Tablas de caracter´ısticas

C.3.

193

Tablas de caracter´ısticas Tabla C.3: Caracter´ısticas de los temblores N´ umero

S´ımbolo

N´ umero

S´ımbolo

1

m´ ax (P SD)

21

m3 (diag|trisp)

2

fm´ax (P SD)

22

N0,29 % (diag|bisp)

3

m1 (P SD)

23

N4,3 % (diag|bisp)

4

m2 (P SD)

24

N0,15 % (diag|trisp)

5

m4 (P SD)

25

N5,6·10−6 % (diag|trisp)

6

N0,72 % (P SD)

26

m5 (diag|trisp)

7

N2,42 % (P SD)

27

TR

8

N95,3 % (P SD)

28

A

9

m5 (P SD)

29

ax

10

S (diag|bisp)

30

ay

11

S (|bisp|)

31

az

12

S (log (diag|bisp))

32

fm´ax (P SDx )

13

S (log (|bisp|))

33

fm´ax (P SDy )

14

m1 (diag|bisp)

34

fm´ax (P SDz )

15

m2 (diag|bisp)

35

H(p)

16

m1 (log (diag|bisp))

36

H(e p)

17

m´ ax (diag|trisp)

37

m3 (P SD)

18

Sr (diag|trisp)

38

H(q)

19

m1 (diag|trisp)

39

(e q)

20

m2 (diag|trisp)

194

Ap´ endice C - Tablas

C.4.

Matriz de caracter´ısticas (ejemplo de algunas columnas)

Tabla C.4: Matriz de caracter´ısticas de una trayectoria descrita por un enfermo de Parkinson C. 1

C. 2

C. 3

C. 4

C. 5

C. 32

C. 33

C. 34

6,73E-06

3,32E+00

1,77E-07

3,45E-13

7,82E-24

6,64E+00

3,42E+00

4,88E+00

4,22E-06

3,22E+00

1,07E-07

1,05E-13

8,46E-25

4,98E+00

4,88E+00

4,20E+00

7,18E-07

4,30E+00

2,90E-08

6,26E-15

1,67E-27

4,00E+00

3,71E+00

4,00E+00

1,09E-02

5,37E+00

5,54E-05

3,69E-07

3,33E-11

5,37E+00

5,18E+00

5,37E+00

7,35E-06

4,79E+00

7,57E-08

2,14E-13

7,88E-24

4,59E+00

5,18E+00

4,69E+00

1,77E-03

5,18E+00

7,93E-06

6,83E-09

1,93E-14

5,18E+00

5,37E+00

5,18E+00

3,24E-06

4,10E+00

9,51E-08

8,72E-14

5,02E-25

4,49E+00

3,32E+00

4,59E+00

1,11E-04

4,59E+00

5,12E-07

2,59E-11

2,95E-19

4,59E+00

4,69E+00

4,59E+00

4,00E+00

4,20E+00

4,20E+00

3,19E-06

4,20E+00

9,96E-08

7,89E-14

3,84E-25 · · ·

3,00E-02

5,86E+00

1,28E-04

2,69E-06

1,82E-09

5,96E+00

5,76E+00

5,86E+00

2,66E-06

6,35E+00

1,05E-07

6,29E-14

2,00E-25

6,25E+00

5,37E+00

5,57E+00

1,93E-06

8,01E+00

7,57E-08

3,56E-14

6,68E-26

3,32E+00

8,40E+00

7,23E+00

9,67E-04

6,35E+00

4,48E-06

2,39E-09

1,81E-15

6,35E+00

6,15E+00

6,35E+00

3,84E-04

6,84E+00

3,03E-06

4,47E-10

4,52E-17

6,45E+00

7,62E+00

6,84E+00

1,22E-04

4,98E+00

3,62E-06

1,93E-10

1,37E-18

6,74E+00

6,74E+00

4,98E+00

1,25E-03

7,03E+00

5,43E-06

4,19E-09

5,34E-15

7,03E+00

6,93E+00

7,03E+00

2,69E-05

3,22E+00

6,01E-07

5,00E-12

1,50E-21

4,39E+00

5,37E+00

3,22E+00

1,80E-05

8,30E+00

6,24E-07

4,11E-12

7,29E-22

7,03E+00

3,22E+00

6,93E+00

´ndice Ape

•••

FIGURAS Resumen En este ap´endice se presentan algunas figuras que, bien por no ser imprescindibles para la lectura del texto, o por ser demasiado grandes, se ha decidido incluirlas en un apartado dedicado en exclusiva para ellas.

D.1.

Figuras de las distribuciones

195

D

0

0

3

0

2

4

6

2 4 6 Sanos(89 puntos)

8

4 5 6 Parkinson(116 puntos)

2 4 6 T. Esencial(22 puntos)

8

8 2

0

0

0

0

10

20

10 20 30 Sanos(79 puntos)

10 20 30 Parkinson(109 puntos)

10 20 30 T. Esencial(22 puntos)

(b) Distribuciones de la caracter´ıstica 5

0

2

4

10 8 6 4 2 0

0

0,5

1

1,5

5 · 10

−2

0,1

0,15

10 8 6 4 2 0 0

0

0

C. 7. Normal

200

400

200 400 Sanos(89 puntos)

200 400 Parkinson(116 puntos)

0 200 400 T. Esencial(22 puntos)

·10−3

(c) Distribuciones de la caracter´ıstica 7

10 8 6 4 2 0

10 8 6 4 2 0

0

1

2

3

4

0

0

4

0

5

10

5 10 Sanos(89 puntos)

15

6 8 10 12 Parkinson(116 puntos)

15

5 10 15 T. Esencial(22 puntos)

C. 8. Gamma

(d) Distribuciones de la caracter´ıstica 8

0

10

20

30

40

0

10

20

30

40

0

5

10

15

20

0

0,1

0,2

0,3

0,4

Figura D.1: Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones est´ aticos

(a) Distribuciones de la caracter´ıstica 2

0

10

20

30

40

0

5

10

15

20

0

1

2

3

4

0

0,2

0,4

0,2

C. 5. Lognormal

fabs fabs fabs

fabs

fabs

fabs

fabs fabs fabs

fabs fabs fabs

C. 2. Lognormal

196 Ap´ endice D - Figuras

2

400

10

15

20

0

0

0

0

C. 24. Normal

50

100

50 100 Sanos(89 puntos)

20 40 Parkinson(116 puntos)

0 50 100 T. Esencial(22 puntos)

·10−2

60

10 8 6 4 2 0

0,4

0,6

0,8

0,4

0,4

0,6

0,8

0,8

0,6

Sanos(61 puntos)

0,6

Parkinson(92 puntos)

0,4

0,2

0,8

T. Esencial(22 puntos)

0,2

C. 30. Weibull

1

1

1

0

5

10

15

20

0

5

10

15

20

0

1

2

3

4

0

0,2

0,4

0

0

2 4 6 T. Esencial(22 puntos)

2

4

2 4 6 Sanos(71 puntos)

8

6

3 4 5 Parkinson(102 puntos)

0

C. 33. Normal

6

8

FiguraD.2: E.1: Distribuciones Distribuciones de de probabilidad probabilidad de de las las caracter´ caracter´ısticas ısticas 23, 23, 24, Figura 24, 30 30 y33 y33 para para comparar comparar todas todas las las enfermedades. enfermedades. Las Las distribuciones distribucionesparciales parcialesdedecada cada enfermedad tienen en cuenta los patrones est´ a ticos enfermedad tienen en cuenta los patrones est´ aticos

(c) Distribuciones de la caracter´ıstica 30 (d) Distribuciones de la caracter´ıstica 33

10 8 6 4 2 0

0

0,5

1

1,5

2

0

1

2

3

4

D.1 - Figuras de las distribuciones

(a) Distribuciones de la caracter´ıstica 23 (b) Distribuciones de la caracter´ıstica 24

0

400

5

10

15

20

5

200

100 200 300 Sanos(89 puntos)

100 200 Parkinson(116 puntos)

0

1

2

3

4

0

1

2

3

4

0

0

0

0

0 200 400 T. Esencial(22 puntos)

C. 23. Weibull

5

10

15

20

10 8 6 4 2 0

0

1

2

3

4

0

0,5

1

1,5

fabs

fabs

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

·10−2

18

Ap´ endice E - Figuras

197

0

0

2

3 4 Sanos(79 puntos)

4

3 4 5 Parkinson(109 puntos)

2

2

2 4 T. Esencial(22 puntos)

C. 35. Weibull

5

6

10 8 6 4 2 0

10 8 6 4 2 0

0

0,5

1

1,5

2

0

0,2

0,4

0

0

0

2

4

2 4 Sanos(82 puntos)

2 4 Parkinson(112 puntos)

2 4 T. Esencial(22 puntos)

C. 36. Normal

6

1,5

2

2,5

2

2,5

2

2,5

2

2,5

Sanos(82 puntos)

1,5

Parkinson(112 puntos)

1,5

T. Esencial(22 puntos)

1,5

C. 38. Weibull

10 8 6 4 2 0

0

5

10

15

20

0

1

2

3

4

0

1

2

3

4

2

2,5

2

2,5

2,2

2

2,5

2,4

2,6

Sanos(79 puntos)

1,5

Parkinson(109 puntos)

1,5

T. Esencial(22 puntos)

1,5

C. 39. Weibull

2,8

(c) Distribuciones de la caracter´ıstica 38 (d) Distribuciones de la caracter´ıstica 39

0

5

10

15

20

0

5

10

15

20

0

0,5

1

1,5

2

0

1

2

3

4

FiguraD.3: E.2:Distribuciones Distribuciones de de probabilidad probabilidad de de las las caracter´ caracter´ ısticas 35, 35, 36, 36, 38 38 yy 39 39 para para comparar comparar todas Figura ısticas todas las las enfermedades. enfermedades. Las Las distribuciones distribuciones parciales parciales de de cada cada enfermedad tienen en cuenta los patrones est´ a ticos enfermedad tienen en cuenta los patrones est´ aticos

(a) Distribuciones de la caracter´ıstica 35 (b) Distribuciones de la caracter´ıstica 36

10 8 6 4 2 0

0

1

2

3

4

10 8 6 4 2 0

fabs

fabs

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

1 0,8 0,6 0,4 0,2 0

198 E.1 - Figuras de las distribuciones Ap´ endice D - Figuras 19

fabs

fabs

20

40

60

200

300

400

200

400

200 400 Sanos(385 puntos)

200 400 Parkinson(377 puntos)

200 400 T. Esencial(97 puntos)

C. 7. Lognormal

(c) Distribuciones de la caracter´ıstica 7

0

0

0

0

·10−2

0

0

5

10

15

10 20 30 Sanos(385 puntos)

4 6 Parkinson(377 puntos)

10 20 30 T. Esencial(97 puntos)

C. 8. Lognormal

20

8

(d) Distribuciones de la caracter´ıstica 8

0

50

100

150

200

0

50

100

150

200

100 80 60 40 20 0

1 0,8 0,6 0,4 0,2 0

Figura D.4: Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones cin´eticos

(b) Distribuciones de la caracter´ıstica 5

0

0

10 20 30 Sanos(385 puntos)

0

50

100

150

200

0

10

20

30

40

0

0

40

20

30

40

0

10 20 30 Parkinson(377 puntos)

20 40 60 T. Esencial(97 puntos)

0

20

10 15 Sanos(385 puntos)

0

5

10

15

20

0

5

10

15

20

0

0,5

1

1,5

2

100

5

4 6 8 Parkinson(377 puntos)

20 40 T. Esencial(97 puntos)

C. 5. Weibull

10

0

0

0,1 8 · 10−2 6 · 10−2 4 · 10−2 2 · 10−2 0

100

200

300

400

100 80 60 40 20 0

0

5

10

15

20

0

0,1

0,2

0,3

C. 2. Lognormal

(a) Distribuciones de la caracter´ıstica 2

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

0,4

D.1 - Figuras de las distribuciones

199

fabs

fabs

400

0

10

15

20

0

10

20

30

40

0

10

20

30

40

0

0

200

400 200 Sanos(385 puntos)

50 100 150 Parkinson(377 puntos)

200 400 T. Esencial(97 puntos)

1

2

3

4

5

0

0

0

0

C. 23. Weibull

5

10

15

20

0

10

20

30

40

0

5

10

15

20

0

0,5

1

1,5

·10−2

0

0

0

0

C. 24. Normal

50

100

50 100 Sanos(385 puntos)

20 40 60 80 Parkinson(377 puntos)

50 100 T. Esencial(97 puntos)

·10−2

100

0,4

0,6

0,8

0,8

0,2

0,2

0,6

0,8

0,4

0,6

Sanos(382 puntos)

0,4

0,8

Parkinson(376 puntos)

0,6

T. Esencial(97 puntos)

0,2

C. 30. Normal

1

1

1

0

50

100

150

200

100 80 60 40 20 0

0

5

10

15

20

0

0,1

0,2

0,3

0,4

0

0

2

20

40

10 20 Sanos(385 puntos)

4 6 8 10 Parkinson(377 puntos)

0 20 40 T. Esencial(97 puntos)

C. 33. Lognormal

30

12

(c) Distribuciones de la caracter´ıstica 30 (d) Distribuciones de la caracter´ıstica 33

100 80 60 40 20 0

0

20

40

10 8 6 4 2 0 0,4

10 8 6 4 2 0

Figura D.5: E.3: Distribuciones Distribuciones de de probabilidad probabilidad de Figura de las las caracter´ caracter´ısticas ısticas 23, 23, 24, 24, 30 30 y33 y33 para para comparar comparar todas todas las las enfermedades. enfermedades. Las Las distribuciones distribucionesparciales parcialesdedecada cada enfermedad tienen en cuenta los patrones cin´ e ticos enfermedad tienen en cuenta los patrones cin´eticos

(a) Distribuciones de la caracter´ıstica 23 (b) Distribuciones de la caracter´ıstica 24

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

2

200 20 Ap´ endice D - Figuras Ap´ endice E - Figuras

fabs

fabs

4

5

20

30

40

0

20

40

0

0

3

6

5

10

15

20

0

2

2 4 6 Sanos(385 puntos)

2 4 Parkinson(377 puntos)

2 4 6 T. Esencial(97 puntos)

10

0

0

0

1 0,8 0,6 0,4 0,2 0

10

20

30

40

0

20

40

10 8 6 4 2 0

1 0,8 0,6 0,4 0,2 0

0

0

0

2

4

2 4 6 Sanos(385 puntos)

2 4 Parkinson(377 puntos)

2 4 6 T. Esencial(97 puntos)

C. 36. Weibull

6

6

2

2,5

2

2,5

2

2,5

2

2,5

Sanos(385 puntos)

1,5

Parkinson(377 puntos)

1,5

T. Esencial(97 puntos)

1,5

3

0

20

40

0

10

20

30

40

10 8 6 4 2 0

0

2

4

2

2,5

2

2,5

1,8

2

2

2,2

2,4

2,6

2,5 Sanos(385 puntos)

1,5

Parkinson(377 puntos)

1,5

T. Esencial(97 puntos)

1,5

C. 39. Weibull

(c) Distribuciones de la caracter´ıstica 38 (d) Distribuciones de la caracter´ıstica 39

0

20

40

0

5

10

15

20

10 8 6 4 2 0

0

2

4

C. 38. Weibull

Figura E.4: Distribuciones de probabilidad de las caracter´ısticas 35, 36, 38 y 39 para comparar todas las enfermedades. Las distribuciones parciales de cada Figura D.6:tienen Distribuciones de las caracter´ısticas 35, 36, 38 y 39 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad en cuenta de losprobabilidad patrones cin´ eticos enfermedad tienen en cuenta los patrones cin´eticos

(a) Distribuciones de la caracter´ıstica 35 (b) Distribuciones de la caracter´ıstica 36

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

C. 35. Weibull

D.1 - Figuras de las distribuciones E.1 - Figuras de las distribuciones

201 21

0

0

2

0

20

40

20 40 Sanos(167 puntos)

4 6 8 Parkinson(186 puntos)

20 40 T. Esencial(28 puntos)

0

0

10

20

10 20 30 Sanos(167 puntos)

10 20 30 Parkinson(186 puntos)

10 20 30 T. Esencial(28 puntos)

30

(b) Distribuciones de la caracter´ıstica 5

0

5

10

15

20

0

5

10

15

20

0

1

2

3

4

0

C. 5. Weibull

100 80 60 40 20 0 0

0

0

200

300

400

200 400 Sanos(167 puntos)

200 400 Parkinson(186 puntos)

200 400 T. Esencial(28 puntos)

C. 7. Lognormal

500

600

600

(c) Distribuciones de la caracter´ıstica 7

0 100

50

100

150

200

10 8 6 4 2 0

0

2

4

·10−3

0

3

0

5

10

15

10 20 Sanos(167 puntos)

4 5 Parkinson(186 puntos)

10 20 T. Esencial(28 puntos)

30

6

30

(d) Distribuciones de la caracter´ıstica 8

0

20

40

0

20

40

0

5

10

15

20

1 0,8 0,6 0,4 0,2 0

C. 8. Lognormal

Figura D.7: Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta los patrones dinamicos

(a) Distribuciones de la caracter´ıstica 2

100 80 60 40 20 0

0

20

40

0

1

2

3

4

0

0,1

0,2

0,3

0,4

fabs

0,1 8 · 10−2 6 · 10−2 4 · 10−2 2 · 10−2 0

fabs fabs fabs

fabs

fabs

fabs fabs fabs

fabs fabs fabs

C. 2. Lognormal

202 Ap´ endice D - Figuras

50

100

50 100 Sanos(167 puntos)

20 40 60 80 Parkinson(186 puntos)

100

20

30

40

0

10

20

30

40

0

1

2

3

4

0 0,4

0,6

0,8

0,6

0,8

0,4

0,6

0,8

0,2

0,4

0,6

0,8

Sanos(148 puntos)

0,2

Parkinson(182 puntos)

0,4

T. Esencial(28 puntos)

0,2

1

1

1

1

0

20

40

0

20

40

10 8 6 4 2 0

0

5 · 10−2

0,1

0,15

0,2

0

0

20

40

10 20 30 Sanos(159 puntos)

5 10 15 20 Parkinson(186 puntos)

0 20 40 T. Esencial(28 puntos)

C. 33. Lognormal

40

(c) Distribuciones de la caracter´ıstica 30 (d) Distribuciones de la caracter´ıstica 33

0

0

0

C. 30. Normal

Figura D.8: E.5: Distribuciones Distribuciones de de probabilidad probabilidad de de las las caracter´ caracter´ısticas ısticas 23, 23, 24, 24, 30 30 y33 y33 para para comparar Figura comparar todas todas las las enfermedades. enfermedades. Las Las distribuciones distribuciones parciales parciales de de cada cada enfermedadtienen tienenen en cuenta cuenta los los patrones patrones din´ dinamicos enfermedad amicos

(a) Distribuciones de la caracter´ıstica 23 (b) Distribuciones de la caracter´ıstica 24

0

0

0

0

50 100 T. Esencial(28 puntos)

0

400

10

15

20

10 8 6 4 2 0

0

0

1

2

3

4

0

400

2

4

0

C. 24. Normal

10

200

200 400 Sanos(167 puntos)

100 200 300 Parkinson(186 puntos)

200 400 T. Esencial(28 puntos)

0,5

1

1,5

2

·10−2

5

0

0

0

0

C. 23. Weibull

5

10

15

20

0

5

10

15

20

0

1

2

3

4

1 0,8 0,6 0,4 0,2 0

fabs

fabs

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

·10−2

D.1 - Figuras de las distribuciones 22

203 Ap´ endice E - Figuras

fabs

fabs

4

0

10

15

20

0

5

2

3 4 5 Sanos(163 puntos)

5

10

15

20

0

0

2

3 4 5 Parkinson(186 puntos)

1

2

3

4

1 0,8 0,6 0,4 0,2 0

5

10

15

20

0

5

10

15

20

0

1

2

3

4

2 4 T. Esencial(28 puntos)

C. 35. Weibull

0

0

2

4

2 4 Sanos(167 puntos)

3 4 5 Parkinson(186 puntos)

2 4 T. Esencial(28 puntos)

C. 36. Weibull

6

6

6

2

1,5

2

2,5

2

2,5

2,5

2,2

2,4

2,6

Sanos(167 puntos)

2

Parkinson(186 puntos)

1,5

T. Esencial(28 puntos)

1,5

C. 38. Normal

2,8

0

5

10

15

20

0

5

10

15

20

0

1

2

3

4

0

1

2

3

4

2

1,5

2

2,5

2

2,5

2,5

2,2

2,4

2,6

Sanos(163 puntos)

2

Parkinson(186 puntos)

1,5

T. Esencial(28 puntos)

1,5

C. 39. Weibull

2,8

(c) Distribuciones de la caracter´ıstica 38 (d) Distribuciones de la caracter´ıstica 39

0

10

20

30

40

0

10

20

30

40

0

1

2

3

4

0

1

2

3

4

Figura D.9: E.6: Distribuciones Distribuciones de de probabilidad probabilidad de de las las caracter´ caracter´ısticas Figura ısticas 35, 35, 36, 36, 38 38 yy 39 39 para para comparar comparar todas todas las las enfermedades. enfermedades. Las Las distribuciones distribuciones parciales parciales de de cada cada enfermedad tienen en cuenta los patrones dinamicos enfermedad tienen en cuenta los patrones din´ amicos

(a) Distribuciones de la caracter´ıstica 35 (b) Distribuciones de la caracter´ıstica 36

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

1 0,8 0,6 0,4 0,2 0

204 E.1 - Figuras de las distribuciones Ap´ endice D - Figuras 23

fabs

fabs

0

200

400

0

100

200

300

400

0

5

10

15

20

0

0,1

0,2

0,3

0

0

2

20

40

20 40 Sanos(641 puntos)

4 6 8 Parkinson(679 puntos)

0 20 40 T. Esencial(147 puntos)

C. 2. Lognormal

0

0

0

20

40

60

10 20 30 Sanos(631 puntos)

10 20 30 Parkinson(672 puntos)

20 40 60 T. Esencial(147 puntos)

C. 5. Weibull

(b) Distribuciones de la caracter´ıstica 5

0

20

40

0

10

20

30

40

0

5

10

15

20

0,1 8 · 10−2 6 · 10−2 4 · 10−2 2 · 10−2 0

0

0

0

C. 7. Lognormal

200

400

200 400 Sanos(641 puntos)

200 400 Parkinson(679 puntos)

0 200 400 T. Esencial(147 puntos)

·10−2

(c) Distribuciones de la caracter´ıstica 7

0

200

400

0

100

200

300

400

0

20

40

1 0,8 0,6 0,4 0,2 0

0

0

4

5

10

15

10 20 30 Sanos(641 puntos)

6 8 10 12 Parkinson(679 puntos)

0 10 20 30 T. Esencial(147 puntos)

20

(d) Distribuciones de la caracter´ıstica 8

0

100

200

300

400

0

50

100

150

200

100 80 60 40 20 0

0

0,2

0,4

C. 8. Lognormal

Figura D.10: Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta todos los patrones

(a) Distribuciones de la caracter´ıstica 2

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

0,4

D.1 - Figuras de las distribuciones

205

50

100

50 100 Sanos(167 puntos)

20 40 60 80 Parkinson(186 puntos)

100

20

30

40

0

10

20

30

40

0

1

2

3

4

0 0,4

0,6

0,8

0,6

0,8

0,4

0,6

0,8

0,2

0,4

0,6

0,8

Sanos(148 puntos)

0,2

Parkinson(182 puntos)

0,4

T. Esencial(28 puntos)

0,2

1

1

1

1

0

20

40

0

20

40

10 8 6 4 2 0

0

5 · 10−2

0,1

0,15

0,2

0

0

20

40

10 20 30 Sanos(159 puntos)

5 10 15 20 Parkinson(186 puntos)

0 20 40 T. Esencial(28 puntos)

C. 33. Lognormal

40

(c) Distribuciones de la caracter´ıstica 30 (d) Distribuciones de la caracter´ıstica 33

0

0

0

C. 30. Normal

Figura D.11: E.7: Distribuciones ısticas Figura Distribuciones de de probabilidad probabilidad de de las las caracter´ caracter´ ısticas 23, 23, 24, 24, 30 30 y33 y33 para para comparar comparar todas todas las las enfermedades. enfermedades. Las Las distribuciones distribuciones parciales parciales de de cada cada enfermedad tienen en cuenta todos los patrones enfermedad tienen en cuenta todos los patrones

(a) Distribuciones de la caracter´ıstica 23 (b) Distribuciones de la caracter´ıstica 24

0

0

0

0

50 100 T. Esencial(28 puntos)

0

400

10

15

20

10 8 6 4 2 0

0

0

1

2

3

4

0

400

2

4

0

C. 24. Normal

10

200

200 400 Sanos(167 puntos)

100 200 300 Parkinson(186 puntos)

200 400 T. Esencial(28 puntos)

0,5

1

1,5

2

·10−2

5

0

0

0

0

C. 23. Weibull

5

10

15

20

0

5

10

15

20

0

1

2

3

4

1 0,8 0,6 0,4 0,2 0

fabs

fabs

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

·10−2

206 24 Ap´ endice ndice E D -- Figuras Figuras Ap´ e

4

0

0

2

4

2 4 Sanos(167 puntos)

3 4 5 Parkinson(186 puntos)

2 4 T. Esencial(28 puntos)

C. 36. Weibull

6

6

6

2

1,5

2

2,5

2

2,5

2,5

2,2

2,4

2,6

Sanos(167 puntos)

2

Parkinson(186 puntos)

1,5

T. Esencial(28 puntos)

1,5

C. 38. Normal

2,8

0

5

10

15

20

0

5

10

15

20

0

1

2

3

4

0

1

2

3

4

2

1,5

2

2,5

2

2,5

2,5

2,2

2,4

2,6

Sanos(163 puntos)

2

Parkinson(186 puntos)

1,5

T. Esencial(28 puntos)

1,5

C. 39. Weibull

2,8

(c) Distribuciones de la caracter´ıstica 38 (d) Distribuciones de la caracter´ıstica 39

0

10

20

30

40

0

10

20

30

40

0

1

2

3

4

0

1

2

3

4

Figura E.8: Distribuciones de probabilidad de las caracter´ısticas 35, 36, 38 y 39 para comparar todas las enfermedades. Las distribuciones parciales de cada Figura D.12: Distribuciones de probabilidad de las caracter´ısticas 35, 36, 38 y 39 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta todos los patrones enfermedad tienen en cuenta todos los patrones

(a) Distribuciones de la caracter´ıstica 35 (b) Distribuciones de la caracter´ıstica 36

0

10

15

20

0

5

2

3 4 5 Sanos(163 puntos)

5

10

15

20

0

1

2

3

4

0

2

3 4 5 Parkinson(186 puntos)

2 4 T. Esencial(28 puntos)

1 0,8 0,6 0,4 0,2 0

5

10

15

20

0

5

10

15

20

0

1

2

3

4

1 0,8 0,6 0,4 0,2 0

fabs

fabs

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

C. 35. Weibull

D.1 las distribuciones distribuciones E.1 -- Figuras Figuras de de las

207 25

6

8

2

3

4

0

10

20

10 20 30 Sanos(43 puntos)

10 20 30 Parkinson(62 puntos)

10 20 30 T. Esencial(12 puntos)

(b) Distribuciones de la caracter´ıstica 5

0

0

0

10 8 6 4 2 0 0

0

0

C. 7. Normal

200

400

200 400 Sanos(53 puntos)

200 400 Parkinson(69 puntos)

0 200 400 T. Esencial(12 puntos)

·10−3

(c) Distribuciones de la caracter´ıstica 7

10 8 6 4 2 0

0

1

2

3

4

0

1

2

3

4

0

0

3

0

5

10

5 10 Sanos(53 puntos)

15

4 5 6 Parkinson(69 puntos)

7

15

5 10 15 T. Esencial(12 puntos)

C. 8. Normal

(d) Distribuciones de la caracter´ıstica 8

0

5

10

15

20

0

5

10

15

20

10 8 6 4 2 0

0

0,1

0,2

0,3

0,4

Figura D.13: Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta el patr´ on PT1

(a) Distribuciones de la caracter´ıstica 2

0

4

8

2

4

1 0,8 0,6 0,4 0,2 0

1

2

2 4 6 Sanos(53 puntos)

4 5 6 Parkinson(69 puntos)

2 4 6 T. Esencial(12 puntos)

0

0

0

3

0

5

10

15

20

0

5

10

15

20

0

1

2

3

4

0

0,2

0,4

0,1 8 · 10−2 6 · 10−2 4 · 10−2 2 · 10−2 0

C. 5. Lognormal

fabs fabs fabs

fabs

fabs

fabs

fabs fabs fabs

fabs fabs fabs

C. 2. Lognormal

208 Ap´ endice D - Figuras

fabs

3

2

3

4

4

5

6

6 8 Sanos(36 puntos)

4 5 6 Parkinson(47 puntos)

4 6 8 T. Esencial(10 puntos)

C. 2. Lognormal

7

5

10

10

15

20 30 Sanos(36 puntos)

10 20 30 Parkinson(47 puntos)

10 20 30 T. Esencial(10 puntos)

C. 5. Lognormal

(b) Distribuciones de la caracter´ıstica 5

0

2

4

0

2

4

0

0,5

1

1,5

2

0

5 · 10−2

0,1

0,15

0,2

500

(c) Distribuciones de la caracter´ıstica 7

6

4

8

10

5 10 Sanos(36 puntos)

12

6 8 10 12 Parkinson(47 puntos)

5 10 T. Esencial(10 puntos)

C. 8. Lognormal

(d) Distribuciones de la caracter´ıstica 8

0 400

10

15

20

0

5

10

15

20

0

2

4

0

0,1

0,2

0,3

0,4

0 200

300

200 400 Sanos(36 puntos)

200 400 Parkinson(47 puntos)

200 400 T. Esencial(10 puntos)

C. 7. Weibull

5

0

0

0

·10−2

1

2

3

4

0

2

4

0

1

2

3

4

1 0,8 0,6 0,4 0,2 0

Figura D.14: Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta el patr´ on PT2

(a) Distribuciones de la caracter´ıstica 2

10 8 6 4 2 0

0

1

2

3

4

1 0,8 0,6 0,4 0,2 0

fabs

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

1 0,8 0,6 0,4 0,2 0

D.1 - Figuras de las distribuciones

209

0,2

10

15

10

20

10 20 30 Sanos(61 puntos)

10 20 30 Parkinson(65 puntos)

10 20 30 T. Esencial(9 puntos)

30

(b) Distribuciones de la caracter´ıstica 5

0

0

0

C. 5. Exponencial

0

0

0

200

300

400

200 400 Sanos(61 puntos)

200 400 Parkinson(65 puntos)

200 400 T. Esencial(9 puntos)

C. 7. Lognormal

500

(c) Distribuciones de la caracter´ıstica 7

100 80 60 40 20 0 100

0

20

40

0

1

2

3

4

0

1

2

3

4

·10−3

0

4

0

5

5,5

5

10

10 20 Sanos(61 puntos)

Parkinson(65 puntos)

4,5

10 20 T. Esencial(9 puntos)

15

6

(d) Distribuciones de la caracter´ıstica 8

0

5

10

15

20

0

5

10

15

20

0

1

2

3

4

1 0,8 0,6 0,4 0,2 0

C. 8. Lognormal

Figura D.15: Distribuciones de probabilidad de las caracter´ısticas 2, , 5, 7 y 8 para comparar todas las enfermedades. Las distribuciones parciales de cada enfermedad tienen en cuenta el patr´ on PT18

(a) Distribuciones de la caracter´ıstica 2

0

40

10 8 6 4 2 0

20

1 0,8 0,6 0,4 0,2 0

0

5

20

20 40 Sanos(61 puntos)

4 6 8 Parkinson(65 puntos)

20 40 T. Esencial(9 puntos)

5 · 10

−2

0,1

0

0

0

2

0

0,2 0,15

10

20

30

40

0

5

10

15

20

0

0,5

1

1,5

2

0

−2

0,1

0,15

5 · 10

fabs

fabs

fabs

fabs fabs fabs

fabs fabs fabs

fabs fabs fabs

C. 2. Lognormal

210 Ap´ endice D - Figuras



BIBLIOGRAF´IA



[A. Gironell, ] A. Gironell, J. K. (–). Temblor esencial. Tema monogr´ afico, Temblor, I. [Anouti and Koller, 1995] Anouti, A. and Koller, W. C. (1995). Tremor disorders. diagnosis and management. Western journal of medicine, 162(6):510. [Barrientos Cruz et al., 2000] Barrientos Cruz, A., Ferre P´erez, Manueland Garc´ıa de Sola, R., Mora Cases, A., and Gonz´ alez Herranz, R. (2000). Sistema para la caracterizaci´on objetiva del temblor mediante patrones que aplican fuerzas virtuales. [Bercher and Vignat, 2000] Bercher, J.-F. and Vignat, C. (2000). Estimating the entropy of a signal with applications. Signal Processing, IEEE Transactions on, 48(6):1687–1694. [Berm´ udez et al., 2011] Berm´ udez, A. N., Spinelli, E. M., and Muravchik, C. M. (2011). Detecci´ on de eventos en se˜ nales de eeg mediante entrop´ıa espectral. In XVIII Congreso Argentino de Bioingenier´ıa SABI. [Berm´ udez et al., 2011] Berm´ udez, A. N., Spinelli, E. M., and Muravchik, C. M. (2011). Detecci´ on de eventos en se˜ nales de eeg mediante entrop´ıa espectral. In XVIII Congreso Argentino de Bioingenier´ıa SABI. [Bhidayasiri, 2005] Bhidayasiri, R. (2005). Differential diagnosis of common tremor syndromes. Postgraduate medical journal, 81(962):756–762. [Botella, 1997] Botella, J. S. (1997). Iniciaci´ on a LATEX2ε . Un sistema para preparar documentos. [Campbell, 1980] Campbell, N. A. (1980). Robust procedures in multivariate analysis i: Robust covariance estimation. Applied statistics, pages 231–237. [Collis et al., 1998] Collis, W., White, P., and Hammond, J. (1998). Higher-order spectra: the bispectrum and trispectrum. Mechanical Systems and Signal Processing, 12(3):375–394. [Cover and Thomas, 2012] Cover, T. M. and Thomas, J. A. (2012). Elements of information theory. John Wiley & Sons. [Crawford and Zimmerman, 2011] Crawford, P. and Zimmerman, E. E. (2011). Differentiation and diagnosis of tremor. American family physician, 83(6). [Deushl and Lorenz, 2003] Deushl, G. and Lorenz, D. (2003). Essential tremor. Orphanet Encyclopedia, 83:697–701. [Egozcue, 1980] Egozcue, J. J. (1980). Una interpretaci´on del an´alisis espectral de m´axima entrop´ıa. Revista de obras p´ ublicas, pages 167–172. [Engin et al., 2007] Engin, M., Demira˘ g, S., Engin, E. Z., C ¸ elebi, G., Ersan, F., Asena, E., and C ¸ olako˘ glu, Z. (2007). The classification of human tremor signals using artificial neural network. Expert Systems with Applications, 33(3):754–761. [EPDA, ] EPDA. European parkinson’s desease association. Web-site: http://www.epda.eu.com/es/. [Eriksson, 2006] Eriksson, L. (2006). Multi-and megavariate data analysis. MKS Umetrics AB.

211

212

Cap´ıtulo 8 - BIBLIOGRAF´IA

[Esbensen et al., 2002] Esbensen, K. H., Guyot, D., Westad, F., and Houmoller, L. P. (2002). Multivariate data analysis: in practice: an introduction to multivariate data analysis and experimental design. Multivariate Data Analysis. [Fackrell, ] Fackrell, S. M. A. S. J. Introducing higher order statistics (hos) for the detection of nonlinearities. Web-site: http://www1.maths.leeds.ac.uk/applied/news.dir/issue2/hos_intro.html. [Fern´ andez, ] Fern´ andez, W. Temblor: Diagn´ ostico diferencial y tratamiento, chapter 6. [Garc´ıa et al., 2008] Garc´ıa, S., Su´ arez, S. S., D´avalo, E. M., and Castillo, J. L. (2008). Perspectiva hist´ orica y aspectos epidemiol´ ogicos de la enfermedad de parkinson. Medicina Interna de M´exico, 24(1). [Gelb et al., 1999] Gelb, D. J., Oliver, E., and Gilman, S. (1999). Diagnostic criteria for parkinson disease. Archives of neurology, 56(1):33–39. [Gil et al., 2010] Gil, L. M., Nunes, T. P., Silva, F. H., Faria, A. C., and Melo, P. L. (2010). Analysis of human tremor in patients with parkinson disease using entropy measures of signal complexity. In Engineering in Medicine and Biology Society (EMBC), 2010 Annual International Conference of the IEEE, pages 2786–2789. IEEE. [Goldratt and Cox, 2007] Goldratt, E. M. and Cox, J. (2007). Un proceso de mejora continua. [Greb and Rusbridge, 1988] Greb, U. and Rusbridge, M. (1988). The interpretation of the bispectrum and bicoherence for non-linear interactions of continuous spectra. Plasma physics and controlled fusion, 30(5):537. [Hellwig et al., 2009] Hellwig, B., Mund, P., Schelter, B., Guschlbauer, B., Timmer, J., and L¨ ucking, C. (2009). A longitudinal study of tremor frequencies in parkinson’s disease and essential tremor. Clinical Neurophysiology, 120(2):431–435. [Henschel et al., 2008] Henschel, K., Hellwig, B., Amtage, F., Vesper, J., Jachan, M., L¨ ucking, C., Timmer, J., and Schelter, B. (2008). Multivariate analysis of dynamical processes. The European Physical Journal Special Topics, 165(1):25–34. [Hern´ andez, 2009] Hern´ andez, B. M. C. (2009). T´ecnicas de clasificaci´on para ayuda al diagn´ostico. [Historia, 2012] Historia, C. (2012). Grandes personajes de la historia. OBRAS DIVERSAS. Penguin Random House Grupo Editorial Espa˜ na. [Jankovic, 2008] Jankovic, J. (2008). Parkinson’s disease: clinical features and diagnosis. Journal of Neurology, Neurosurgery & Psychiatry, 79(4):368–376. [Ju´ arez et al., 2003] Ju´ arez, I. U., Perucha, V. T., and Moreno, J. S. M. (2003). Lecciones de c´ alculo de probabilidades: curso te´ orico-pr´ actico. Thomson. [Kayo et al., 2013] Kayo, I., Takada, M., and Jain, B. (2013). Information content of weak lensing power spectrum and bispectrum: including the non-gaussian error covariance matrix. Monthly Notices of the Royal Astronomical Society, 429(1):344–371. [Kelsberg et al., 2008] Kelsberg, G., Rubenstein, C., and St Anna, L. (2008). Differential diagnosis of tremor. Clinical Inquiries, 2008 (MU). [Krzanowski and Krzanowski, 2000] Krzanowski, W. J. and Krzanowski, W. (2000). Principles of multivariate analysis. Clarendon. [Kulisevsky, ] Kulisevsky, E. G. J. Temblor esencial. Tema Monogr´ afico. [L´ opez, 2004] L´ opez, C. P. (2004). Tecnicas De Analisis Multivariante De Datos Aplicaciones Con Spss 1/E. [Louis, 2009] Louis, E. D. (2009). Essential tremors: a family of neurodegenerative disorders? Archives of neurology, 66(10):1202–1208.

8.1 - BIBLIOGRAF´IA

213

[Louis et al., 1998] Louis, E. D., Ford, B., Lee, H., Andrews, H., and Cameron, G. (1998). Diagnostic criteria for essential tremor: a population perspective. Archives of neurology, 55(6):823–828. [L´ opez, 2006] L´ opez, J. M. R. (2006). T´ecnicas de clasificaci´on para la ayuda al diagn´ostico de enfermedades neurodegenerativas. [Mandado and Valencia, 2009] Mandado, P. H. and Valencia, T. I. V. (2009). Diagn´ostico diferencial del temblor. Archivo M´edico de Camag¨ uey, 13(4). [Mart´ın, 2002] Mart´ın, C. R. (2002). Filtrado y caracterizaci´on del temblor mediante t´ecnicas de inteligencia artificial. aplicaci´ on de las redes neuronales al procesamiento de se˜ nal. [Moreno and Rutll´ on, 1996] Moreno, A. and Rutll´on, M. (1996). Integrated polispectrum on speech recognition. In Spoken Language, 1996. ICSLP 96. Proceedings., Fourth International Conference on, volume 2, pages 1281–1284. IEEE. [Nauck and Kruse, 1999] Nauck, D. and Kruse, R. (1999). Obtaining interpretable fuzzy classification rules from medical data. Artificial intelligence in medicine, 16(2):149–169. [Oppenheim et al., 1989] Oppenheim, A. V., Schafer, R. W., Buck, J. R., et al. (1989). Discrete-time signal processing, volume 2. Prentice-hall Englewood Cliffs. [O’Suilleabhain and Matsumoto, 1998] O’Suilleabhain, P. E. and Matsumoto, J. Y. (1998). frequency analysis of tremors. Brain, 121(11):2127–2134.

Time-

[Pakin, 2009] Pakin, S. (9 de Noviembre de 2009). The Comprehensive LATEX Symbol List. [Pe˜ na, 2002] Pe˜ na, D. (2002). An´ alisis de datos multivariantes. McGrawHill. [Pe˜ na and Prieto, 2001] Pe˜ na, D. and Prieto, F. J. (2001). Cluster identification using projections. Journal of the American Statistical Association, 96(456). [Plackett, 1983] Plackett, R. L. (1983). Karl pearson and the chi-squared test. International statistical review, 51(1):59–72. [P´erez, 2008] P´erez, P. L. R. P. C. G. (2008). T´ecnicas de clasificaci´on para ayuda al diagn´ostico de enfermedades neurodegenerativas. [Quinn, 1995] Quinn, N. (1995). Parkinsonism–recognition and differential diagnosis. BMJ: British Medical Journal, 310(6977):447. [Roberts, 2014] Roberts, S. (2014). Signal Processing and filter Design Course. Lecture 7. [Rodr´ıguez, 2014] Rodr´ıguez, H. R. M. (2014). Diagn´ostico y tratamiento de la enfermedad de parkinson. Diagn´ ostico, 8(25). [Rojas, 1996] Rojas, R. (1996). Neutral Networks: A Systematic Introduction. Springer. [Ross, 2009] Ross, T. J. (2009). Fuzzy logic with engineering applications. John Wiley & Sons. [Salarian et al., 2007] Salarian, A., Russmann, H., Wider, C., Burkhard, P. R., Vingerhoets, F. J., and Aminian, K. (2007). Quantification of tremor and bradykinesia in parkinson’s disease using a novel ambulatory monitoring system. Biomedical Engineering, IEEE Transactions on, 54(2):313–322. [Salinas, 2003] Salinas, B. C. (2003). El Libro del LATEX. [Shannon, 2001] Shannon, C. E. (2001). A mathematical theory of communication. ACM SIGMOBILE Mobile Computing and Communications Review, 5(1):3–55. [Smith, 2003] Smith, S. W. (2003). Digital signal processing: a practical guide for engineers and scientists. Newnes. [Spyers-Ashby et al., 1998] Spyers-Ashby, J., Bain, P., and Roberts, S. (1998). A comparison of fast fourier transform (fft) and autoregressive (ar) spectral estimation techniques for the analysis of tremor data. Journal of neuroscience methods, 83(1):35–43.

214

Bibliografia

[Stoica and Moses, 2005] Stoica, P. and Moses, R. L. (2005). Spectral analysis of signals. Pearson/Prentice Hall Upper Saddle River, NJ. [Swami et al., 1984] Swami, A., Mendel, J. M., and Nikias, C. L. M. (1984). Higher-order spectral analysis toolbox. [Valencia, 2008] Valencia, P. M. (2008). T´ecnicas de clasificaci´on para ayuda al diagn´ostico de enfermedades neurodegenerativas. [Vi˜ nas, 2003] Vi˜ nas, J. R. N. J. F. A. (2003). Procesamiento digital de se˜ nales de vibraci´ on con fines de diagn´ ostico. PhD thesis, Centro nacional de investigaci´on y desarrollo tecnol´ogico. [Wallisch et al., 2014] Wallisch, P., Lusignan, M., Benayoun, M., Baker, T., Dickey, A., and Hatsopoulos, N. (2014). Matlab® for Neuroscientists: An Introduction to Scientific Computing in Matlab® . Elsevier Science. [Winterhalder et al., 2007] Winterhalder, M., Schelter, B., and Timmer, J. (2007). Detecting coupling directions in multivariate oscillatory systems. International Journal of Bifurcation and Chaos, 17(10):3735–3739. [Wolinsky, 1988] Wolinsky, M. A. (1988). Invitation to the bispectrum. Technical report, DTIC Document. [Young, 1976] Young, B. T. S. R. R. (1976). Physiological and pharmacological aids in the differential diagnosis of tremor. Journal ofNeurology, Neurosurgery, and Psychiatry, 39:772–783. [Zadeh, 1988] Zadeh, L. A. (1988). Fuzzy logic. Computer, 21(4):83–93.

‘‘I’m a great believer in luck, and I find the harder I work the more I have of it.’’ Thomas Jefferson (1743-1826)

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.