Download Anexo 1. Pruebas con la herramienta de experimentación

Document related concepts
no text concepts found
Transcript
TRABAJO FIN DE GRADO
Grado en Ingeniería Informática – Tecnologías Informáticas
MIRA: Framework para la experimentación y estudio de
movimientos microsacádicos.
Autor
Francisco Luna Perejón
Dirigido por
Dr. Octavio Rivera Romero
DEPARTAMENTO DE TECNOLOGÍA ELECTRÓNICA
ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA
Dr. Miguel Escudero González
DEPARTAMENTO DE FISIOLOGÍA
FACULTAD DE BIOLOGÍA
En colaboración con
Dª. Lola Fernández Rubio
FACULTAD DE BIOLOGÍA
Sevilla, Septiembre 2014
2
1.
1.1.
1.2.
1.3.
1.4.
2.
2.1.
2.2.
2.3.
2.4.
3.
3.1.
4.
4.1.
4.2.
4.3.
4.4.
5.
5.1.
5.2.
5.3.
6.
6.1.
6.2.
6.3.
7.
7.1.
7.2.
8.
PRESENTACIÓN
Motivación
Primera reunión – Inicio del proyecto
Objetivos
Estructura del documento
ANÁLISIS DE LA GESTIÓN Y DESARROLLO DEL TRABAJO
Metodología del proyecto
Tareas
Análisis temporal
Costes
ANÁLISIS DE REQUISITOS
Identificación y especificación de requisitos
ESTADO DEL ARTE
Movimientos oculares y aspectos fisiológicos
Sistemas de adquisición
Sistema de procesamiento
Modelo físico del movimiento y de visión ocular
DISEÑO
Diseño del sistema de detección y clasificación
Diseño de la herramienta de experimentación
Diseño del modelo de visión y movimiento ocular
IMPLEMENTACIÓN
Implementación del sistema de detección y clasificación
Implementación de la experimentación
Implementación del Modelo
PRUEBAS
Pruebas con la herramienta de procesamiento
Pruebas con la herramienta de modelado de la visión
CONCLUSIONES
BIBLIOGRAFÍA
6
6
7
7
9
11
11
11
22
23
26
26
47
47
55
65
68
72
72
84
92
97
97
110
114
118
118
135
139
143
3
ANEXO 1. PRUEBAS CON LA HERRAMIENTA DE EXPERIMENTACIÓN
146
Pruebas con sujetos
149
Análisis de resultados
153
4
5
1. PRESENTACIÓN
1.1. MOTIVACIÓN
El
trabajo
de
fin
de
carrera
presentado está enmarcado dentro del
programa Sinergia, que propone la
realización de trabajos de fin de grado
de mayor envergadura con un carácter
interdisciplinar y que requiera para su
ejecución y finalización la cooperación
de dos alumnos de centros y titulaciones
diferentes.
En
las
propuestas
Figura 1: Logotipo de SINERGIA
de
Sinergia, cada alumno realizará la parte del proyecto que le compete, aunque para que
el trabajo de ambos encaje deberá realizarse de manera colaborativa manteniendo un
flujo de comunicación constante a lo largo de su elaboración.
El centro con el que se coopera en este proyecto es la Facultad de Biología,
concretamente con el Departamento de Fisiología, cuyo tutor es el profesor D. Miguel
Escudero, y la alumna con la que se colaborará es la estudiante Dª. María Dolores
Fernández.
La motivación de los alumnos que cooperan en la realización de un proyecto de
este tipo es muy importante. En este sentido, el alumno D. Francisco Luna Perejón,
coautor de este proyecto, siempre se ha interesado por el campo de la biología y ha
sentido un gran afán por dedicarse al desarrollo de tecnología informática relacionada
con el campo de la salud, ya sea con objeto de investigar como de proporcionar un
servicio a entidades o centrada directamente en la persona. La elección de este
trabajo ofrecía una oportunidad única para su introducción en el campo de la
tecnología aplicada a la Biología: no sólo estaba relacionado con su ámbito de interés
tratando una necesidad real, sino que además permitía realizar un proyecto en el que
podría trabajar con personal especializado en dicho campo, lo que confería una
experiencia más completa y realista.
El proyecto en conjunto trata la investigación de una parte de la fisiología
humana, concretamente una clase de movimientos del ojo, por lo que se requiere un
estudio del campo biológico y posteriormente de las soluciones tecnológicas que
existen para poder recabar información de aquello que se pretende investigar. En este
trabajo de fin de grado se pretende elaborar un framework que apoye la investigación,
6
cubriendo las necesidades para la realización de la experimentación en este campo y
el posterior análisis de éstos movimientos del ojo humano, adquiriendo así la
información relevante para el estudio de carácter estadístico
1.2. PRIMERA REUNIÓN – INICIO DEL PROYECTO
Una vez adjudicado el Trabajo de Fin de Grado a los estudiantes y para la
puesta en marcha del proyecto, fue necesario realizar unas reuniones de coordinación
previas, en las que se sentaron las bases y los objetivos del proyecto.
En la primera reunión se realizó el 29 de noviembre del 2013. En ella se
estableció el propósito principal del proyecto, las tareas principales a las que debían
dedicarse cada alumno y el seguimiento que debía tener durante el mismo. Por
supuesto, además se determinaron los objetivos principales del proyecto.
En ésta reunión también
cumplimentamos
y
firmamos
documentos
lo
que
por
nos
comprometíamos a finalizar el
proyecto acordado.
Se acordó realizar reuniones
de
forma
regular
tanto
para
afrontar dificultades que fueran
surgiendo durante la consecución
Miembros participantes en el TFG MIRA. De Izquierda a
derecha, D. Miguel Escudero, Dª. Mª. Dolores Fernández, D.
Francisco Luna Perejón y D. Octavio Rivera.
del
proyecto
como
para
determinar requisitos, objetivos y
tareas aún por concretar o nuevas
surgidas a medida que iba evolucionando el proyecto.
1.3. OBJETIVOS
El proyecto en conjunto trata del estudio de unos movimientos oculares
denominados microsacádicos, concretamente centrados en la fisiología del ser
humano. Para ello, la estudiante con la que se coopera requiere de una serie de
herramientas para la estimulación a su generación, así como la correcta captación y
localización de los movimientos oculares relevantes para su estudio.
Las herramientas software deben, en general, cubrir las siguientes necesidades:
7
-
Implementar pruebas de experimentación a las que se han de someter a los
sujetos de estudio, para la investigación de los movimientos oculares de
interés,.
-
Detectar movimientos oculares y clasificarlos en función de las propiedades
fisiológicas que las diferencien entre sí.
-
Representar los movimientos detectados de forma visual y obtener
información relevante sobre los movimientos detectados de interés para la
investigación.
-
Cálculo y representación de la zona de fijación de la mirada de cada sujeto
durante la prueba.
-
Detección de posibles fuentes de errores de experimentación como una mala
ejecución de la prueba.
Para dar soporte a alguna de estas herramientas, se requiere de un laboratorio
que posean los recursos apropiados para la investigación. Dichos recursos
consisten en algún sistema de captación que permita recoger información del
movimiento del ojo, así como de otros factores temporales o eventuales que
ocurran durante las pruebas. El laboratorio del Departamento de Fisiología de la
Facultad de Biología cubre esta necesidad: posee una zona de pruebas para el
estudio de movimientos oculares y de impulsos cerebrales, con hardware
especializado para la captación de lo mencionado en tiempo real, elementos de
entrada/salida para emisión de estímulos y captación de respuestas, y sistemas
encargados de la recopilación de toda la información captada durante las
pruebas pertinentes.
El trabajo se desarrollará cumpliendo los siguientes objetivos:
a. Prestar atención constante a las necesidades que se vayan especificando
por los miembros de Biología, y que se expondrán en las reuniones de
coordinación del proyecto.
b. Desarrollar cada una de las partes que componen el producto software
cubriendo las necesidades tal como se han concretado en las reuniones.
c. Generar una base de conocimiento mediante la realización de un estudio del
arte sobre anatomía y fisiología de ojo humano, centrado en el modo de
generar los movimientos oculares y en la capacidad del ojo humano para
visualizar el entorno.
d. Realizar un estudio del arte de los métodos y tecnologías de captación más
apropiadas del movimiento del ojo.
8
e. Adquirir conocimiento sobre las técnicas de procesamiento de registros de
movimiento.
f.
Crear un modelo matemático que permita traducir datos sobre movimientos
oculares registrados en áreas de visualización en el plano imagen..
g.
Participar en la definición del protocolo de experimentación como experto
tecnológico.
h. Colaborar como apoyo técnico en la realización de las pruebas a los sujetos
de experimentación.
i.
Cooperar en la obtención de resultados y conclusiones de experimentación.
j.
Evaluar la efectividad de las herramientas creadas y la utilidad de las mismas
en la consecución de los objetivos de la investigación propuesta.
k. Como proyecto recogido en el programa Sinergias, plantear conclusiones
sobre los aspectos positivos y negativos de realizar los trabajos de fin de
carrera entre miembros de facultades distintas.
1.4. ESTRUCTURA DEL DOCUMENTO
El documento se compone principalmente de siete apartados además de la
presentación, más un anexo. El segundo apartado se describe la planificación del
proyecto, en el que se describe la metodología del proyecto, así como todas las tareas
llevadas a cabo; se muestran la planificación temporal y los costos del proyecto. El
tercer apartado corresponde al análisis de requisitos, en el que se recogen y describen
detalladamente todos los requisitos que han ido surgiendo a lo largo del proyecto. En
el cuarto apartado se realiza un estudio del arte de los temas en los que ha sido
necesaria una formación previa para la realización de tareas del proyecto y
contextualizar el mismo. El quinto apartado se describen aspectos del diseño de todas
las herramientas que se han elaborado para la consecución del proyecto siguiendo los
requisitos. En el sexto apartado se habla de los aspectos de implementación aplicando
el diseño anterior. El séptimo apartado recoge las pruebas realizadas a las
herramientas de detección de movimientos y de representación de la mirada y se
sacan conclusiones de las mismas. El octavo apartado está reservado a las
conclusiones tras la realización del TFG. Se añade un anexo en el que se recogen las
tareas realizadas en el laboratorio del departamento de Fisiología, así como un estudio
de resultados fruto del procesamiento de los registros recogidos durante las pruebas
con sujetos de investigación.
9
10
2. ANÁLISIS DE LA GESTIÓN Y DESARROLLO DEL TRABAJO
2.1. METODOLOGÍA DEL PROYECTO
Para la realización del proyecto no se ha seguido un ciclo de vida clásico debido a que
no se podían establecer todos los requisitos al inicio. Se trabajó con un ciclo iterativo
propio de proyectos en los que existen redefinición o especificación tardía de
requisitos. Siguiendo dicho modelo se han ido desarrollando versiones de cada
herramienta, prototipos completos, que han sido mejorados en función de nuevos
requisitos surgidos en las pruebas realizadas una vez finalizada su implementación.
Este proceso de manera general se representa en la figura 2.
Figura 2: metodología del proyecto
2.2. TAREAS
Las tareas realizadas en el trabajo de fin de grado han sido varias y de distinta índole,
pudiéndose clasificar en fases, como puede apreciarse en la figura 3:
Figura 3: Tareas del proyecto
11
2.2.1. RESUMEN DE TAREAS
- Tareas de coordinación (T.C.)
T.C.1. Reunión inicial.
Descripción: Primera reunión con la que da comienzo el proyecto, en el que se
presentaron todos los miembros.
Entregables: Se firmaron unos documentos por el que se compromete a finalizar el
proyecto (D1).
Fecha: Noviembre de 2013
T.C.2. Segunda reunión.
Descripción: Se asentaron las bases del proyecto, objetivos y tareas principales de las
que constaba en un inicio el proyecto.
Entregables: Acta de la reunión y redacción de primeros requisitos (Ac1, AR1).
Fecha: Diciembre de 2013
T.C.3. Tercera reunión.
Descripción: Se validó la información respecto de los movimientos oculares de los que
había que informarse, así como de los recursos que se poseen en el proyecto, y se
definieron nuevos objetivos y tareas.
Entregables: Acta de la reunión y redacción de nuevos requisitos (Ac2, AR2).
Fecha: Enero de 2014
T.C.4. Contraste experimentación 1.
Descripción: Se comentan ideas sobre la posible experimentación a realizar en el
proyecto.
Fecha: Febrero de 2014
T.C.5. Contraste experimentación 2.
Descripción: Se tratan nuevas ideas de experimentos para investigar en el proyecto.
Fecha: Marzo de 2014
T.C.6. Cuarta reunión (Miembros de informática).
Descripción: Se validó la tecnología a emplear para la realización de las tareas que
competen a la parte informática y se establecieron objetivos.
Entregables: Acta de la reunión (Ac3).
Fecha: Abril de 2014
12
T.C.7. Quinta reunión (Miembros de biología).
Descripción: Se pusieron en escena los conocimientos adquiridos de relevancia en
referencia a los movimientos oculares, se validaron y se analizó su importancia para el
estudio que se plantea hacer en el proyecto.
Fecha: Abril de 2014
T.C.8. Sexta reunión.
Descripción: Se describieron características del sistema de adquisición y se estableció
una idea más concreta de la clase de experimentación que se quería realizar para el
estudio.
Entregables: Redacción de nuevos requisitos (AR3) y acta correspondiente (Ac4).
Fecha: Junio de 2014
T.C.9. Séptima reunión.
Descripción: Validación del primer protocolo desarrollado en el experimento, así como
la hipótesis que sostiene.
Entregables: Nuevos requisitos (AR3.1) , acta de la reunión (Ac5) e informe de los
aspectos clave del protocolo (DE1).
Fecha: Julio de 2014
T.C.10. Octava reunión.
Descripción: Se expone el nuevo protocolo de la prueba de experimentación y se
muestran los resultados de la primera versión de la herramienta de procesamiento y
clasificación, sometiéndolo análisis y apuntando errores.
Entregables: Acta de la reunión (Ac6) y diseño de experimentación (DE2).
Fecha: Julio de 2014
T.C.11. Novena reunión.
Descripción: Se somete a prueba el protocolo de experimentación 2 implementado y
se determina uno nuevo tras errar el anterior en las pruebas. Se actualiza el diseño de
experimentación.
Fecha: Julio de 2014
T.C.12. Décima reunión.
Descripción: Se plantea un modelo básico de la representación de la mirada.
Entregables: Informe de diseño del modelo (DV1).
Fecha: Julio de 2014
T.C.13. Undécima reunión.
13
Descripción: Se plantea de nuevo el modelo de visión, ya en base a conocimientos
respecto del modo en capturar los datos el sistema de adquisición.
Entregables: Informe del nuevo modelo (DV2).
Fecha: Julio de 2014
T.C.14. Validación procesamiento 3.
Descripción: Se da por válido el funcionamiento de la herramienta de procesamiento
en su tercera versión.
Fecha: Agosto de 2014
T.C.15. Validación procesamiento 4.
Descripción: Se dan por válidas las funcionalidades añadidas en la cuarta versión de la
herramienta de procesamiento.
Fecha: Agosto de 2014
T.C.16. Duodécima reunión (Miembros de informática).
Descripción: Se valida el modelo de representación y se aclaran aspectos de la
documentación.
Fecha: Septiembre de 2014
T.C.17. Decimotercera reunión.
Descripción: Se tratan aspectos del estado del proyecto y se revisa documentación.
Fecha: Septiembre de 2014
T.C.18. Decimocuarta reunión.
Descripción: Se describen últimas correcciones de la documentación.
Fecha: Septiembre de 2014
- Generación de Conocimientos (G.C.)
G.C.1. Lectura de Artículo principal.
Descripción: Adquirir conocimientos sobre los movimientos microsacádicos a partir del
artículo principal.
Fecha: Noviembre de 2014
G.C.2. Estudio del arte 1.
Descripción: Estudio de las características de los movimientos oculares así como de
su origen y funcionalidad.
14
Entregables: Nuevos requisitos (AR2.1) e informe con los conocimientos de utilidad
para contextualizar el proyecto (IA1).
Fecha: Enero – Junio de 2014
G.C.3. Estudio del arte 2.
Descripción: Estudio del arte de las técnicas de procesamientos de señales de
movimiento ocular.
Entregables: Nuevos requisitos (AR2) e informe con los conocimientos de utilidad para
contextualizar el proyecto (IA2).
Fecha: Enero – Junio de 2014
G.C.4. Estudio del arte 3.
Descripción: Estudio de los posibles sistemas de adquisición basado en diferentes
métodos y tecnologías.
Entregables: Informe al respecto para contextualizar el proyecto (IA3).
Fecha: Abril – Junio de 2014
- Tareas de Diseño (T.Di.)
T.Di.1. Diseño de procesamiento 1.
Descripción: Se establece la estructura inicial de las fases y funcionamiento que debe
de tener la herramienta de procesamiento.
Entregables: Informe del diseño inicial (DP1).
Fecha: Enero de 2014
T.Di.2. Definición experimentación 1.
Descripción: Se elaboró un protocolo de experimentación para la realización de
pruebas a sujetos acorde a la investigación que se quiere realizar de los movimientos
oculares.
Fecha: Abril – Junio de 2014
T.Di.3. Diseño de interfaz de edición de imágenes.
Descripción: Se idealiza los componentes y estructura que se pretende realizar para
editar imágenes para su uso en la prueba de experimentación.
Entregables: Bocetos (DI).
Fecha: Abril de 2014
T.Di.4. Diseño de procesamiento 2.
15
Descripción: Se establece una nueva estructuración de las fase del procesamiento y
nuevo modo de funcionamiento de dichas fases.
Entregables: Informe del diseño actualizado (DP2).
Fecha: Julio de 2014
T.Di.5. Diseño procesamiento 3.
Descripción: Se establece un cambio en el funcionamiento de algunas fases del
procesamiento.
Entregables: Informe de dichos cambios (DP3).
Fecha: Julio de 2014
T.Di.6. Diseño procesamiento 4.
Descripción: Se idean nuevas funcionalidades para el sistema de procesamiento.
Entregables: Informe de diseño (DP4).
Fecha: Agosto de 2014
- Desarrollo (T.De.)
T.De.1. Implementación procesamiento 1.
Descripción: Se realiza una primera implementación de la herramienta de
procesamiento sin la clasificación.
Entregables: Informe de la implementación del procesamiento (IP1).
Fecha: Enero de 2014
T.De.2. Implementación interfaz de edición de imágenes.
Descripción: Se comenzó la implementación de la interfaz. No se finalizó por cambio
en los requisitos.
Fecha: Abril de 2014
T.De.3. Implementación experimentación 1.
Descripción: Se realizan imágenes de la primera prueba de experimentación y se
implementan.
Entregables: Informe de la implementación (IE1).
Fecha: Junio – Julio de 2014
T.De.4. Implementación clasificación.
Descripción: Se realiza la implementación de la fase de clasificación de la herramienta
de procesamiento.
16
Entregables: Informe de implementación (IP1.1)
Fecha: Junio 2014
T.De.5. Implementación experimentación 2.
Descripción: Se realizan imágenes de la nueva prueba de experimentación y se
implementan.
Entregables: Informe de la implementación (IE2).
Fecha: Julio de 2014
T.De.6. Implementación experimentación 3.
Descripción: Se realizan imágenes de la tercera versión de
experimentación y se implementan.
prueba de
Entregables: Informe de la implementación (IE3).
Fecha: Julio de 2014
T.De.7. Implementación procesamiento 2.
Descripción: Se realiza la implementación de la segunda versión de la herramienta de
procesamiento.
Entregables: Informe de la implementación (IP2).
Fecha: Julio de 2014
T.De.8. Implementación procesamiento 3.
Descripción: Se realiza la implementación de la tercera versión de la herramienta de
procesamiento.
Entregables: Informe de la implementación (IP3).
Fecha: Julio de 2014
T.De.9. Implementación modelo de visión.
Descripción: Se realiza la implementación de la herramienta de representación de la
mirada, acorde al segundo modelo realizado.
Entregables: Informe de la implementación (IV).
Fecha: Julio – Agosto de 2014
T.De.10. Implementación procesamiento 4.
Descripción: Se realiza la implementación de la cuarta versión de la herramienta de
procesamiento.
Entregables: Informe de la implementación (IP4).
17
Fecha: Agosto de 2014
T.De.11. Pruebas procesamiento 1.
Descripción: Se realizan pruebas a la implementación de la herramienta de
procesamiento sin clasificación.
Entregables: Informe de pruebas (PP1.1).
Fecha: Junio de 2014
T.De.12. Pruebas experimentación 1.
Descripción: Se comprueba la implementación de la prueba de experimentación.
Entregables: Informe de pruebas (PE1).
Fecha: Julio de 2014
T.De.13. Pruebas procesamiento 1 con clasificación.
Descripción: Se realizan pruebas a la implementación de la herramienta de
procesamiento con clasificación.
Entregables: Informe de pruebas (PP1.2).
Fecha: julio de 2014
T.De.14. Pruebas experimentación 2.
Descripción: Se comprueba la
experimentación.
implementación de la segunda prueba de
Entregables: Informe de pruebas (PE2).
Fecha: Julio de 2014
T.De.15. Pruebas experimentación 3.
Descripción: Se comprueba la
experimentación.
implementación de la tercera prueba de
Entregables: Informe de pruebas (PE3).
Fecha: Julio de 2014
T.De.16. Pruebas procesamiento 2.
Descripción: Se realizan pruebas a la implementación de la segunda versión de la
herramienta de procesamiento.
Entregables: Informe de pruebas (PP2).
Fecha: Julio de 2014
T.De.17. Pruebas procesamiento 3.
18
Descripción: Se realizan pruebas a la implementación de la tercera versión de la
herramienta de procesamiento.
Entregables: Informe de pruebas (PP3).
Fecha: Agosto 2014
T.De.18. Pruebas modelo visión.
Descripción: Se realizan pruebas a la implementación de la herramienta de
representación de la mirada.
Entregables: Informe de pruebas (PV).
Fecha: Agosto de 2014
T.De.19. Pruebas procesamiento 4.
Descripción: Se realizan pruebas a la implementación de la cuarta versión de la
herramienta de procesamiento.
Entregables: Informe de pruebas (PP4).
Fecha: agosto de 2014
- Documentación (T.Do.)
T.Do.1. Memoria.
Descripción: Elaboración de la memoria que ha de entregarse al final del proyecto.
Entregables: Documento de la memoria (Doc1).
Fecha: Julio – Septiembre de 2014
T.Do.2. Prueba con sujetos.
Descripción: Se someten a los sujetos de experimentación a la prueba implementada
siguiendo el protocolo de experimentación.
Entregables: Registros oculares a procesar (Reg.).
Fecha: Julio de 2014.
T.Do.3. Recogida de datos.
Descripción: Recopilación de los datos de los registros procesados por la herramienta
para el estudio.
Entregables: Datos para procesamiento(Dat1).
Fecha: Agosto de 2014
T.Do.4. Resultados.
Descripción: Comprobación de los resultados de los datos.
19
Entregables: Informe de resultados (R1).
Fecha: Septiembre de 2014
T.Do.5. Presentación.
Descripción: Creación de la presentación para la exposición.
Entregables: Documento de presentación (Doc2).
Fecha: Septiembre de 2014
2.2.2. ENTREGABLES
ID
Título
Descripción
D1.
Documento de compromiso con el proyecto.
Ac1.
Documentos
administrativos
Acta 1
AR1.
Análisis de requisitos 1
Ac2.
Acta 2
AR2.
Análisis de requisitos 2
Ac3.
Acta 3
AR2.1.
Análisis de requisitos 2
actualizado
Informe de estudio del
arte 1
IA1.
AR2.2.
IA2.
Análisis de requisitos 2
actualizado (2)
Informe de estudio del
arte 2
AR3.
Análisis de requisitos 3
IA3.
Informe de estudio del
arte 3
Ac4.
Acta 4
Ac5.
Acta 5
Acta de la segunda reunión, en el que se anotan los
asuntos tratados en dicha reunión y las tareas a
realizar.
Elicitación de requisitos, es decir, apunte de los
primeros requisitos surgidos en el proyecto.
Acta de la tercera reunión, en el que se anotan los
asuntos tratados en dicha reunión y las tareas a
realizar.
Requisitos añadidos al proyecto fruto de contemplar
nuevas tareas y restricciones.
Acta de la cuarta reunión, en que se anotan los
asuntos tratados y las nuevas tareas.
Requisitos surgidos con el conocimiento de
propiedades de los movimientos oculares.
Informe con la información de relevancia para el
proyecto sobre los movimientos oculares, para
contextualizar y enfocar correctamente las ideas al
respecto.
Requisitos añadidos correspondiente al modo de
procesar señales digitales de movimientos del ojo.
Informe con la información importante para el
procesamiento de señales del ojo que se adecuan
más en dadas las características y requisitos de
nuestro proyecto.
Requisitos surgidos fruto de establecer nuevas
restricciones con el sistema de adquisición y la
aparición de nuevas tareas tras conocer nuevos
aspectos de la experimentación que se plantea en el
proyecto.
Documento informando los sistemas de adquisición
de distinta índole actualmente usados en el campo de
investigación de los movimientos oculares.
Acta de la sexta reunión, cuarta entre todos los
miembros, en el que se reseña los temas tratados y
tareas añadidas.
Acta de la séptima reunión, en la que se recogen los
20
DE1.
PP1.2.
Ac6.
DE2.
DE3.
DV1.
DV2.
DI.
DP1.
DP2.
DP3.
DP4.
IP1.
IE1.
IE2.
IE3.
IP2.
IP3.
IV.
IP4.
PP1.1.
PP1.2.
Informe de Diseño de
experimentación 1
Informe de Pruebas de
procesamiento 1
Acta 6
Informe de Diseño de
experimentación 2
Informe de Diseño de
experimentación 3
Informe de Diseño de
modelo de visión 1
Informe de Diseño de
modelo de visión 2
Bocetos de interfaz
gráfica
Informe de Diseño de
Procesamiento 1
Informe de Diseño de
Procesamiento 2
Informe de Diseño de
Procesamiento 3
Informe de Diseño de
Procesamiento 4
Informe de
Implementación de
Procesamiento 1
Informe de
Implementación de
experimentación 1
Informe de
Implementación de
experimentación 2
Informe de
Implementación de
experimentación 3
Informe de
Implementación de
Procesamiento 2
Informe de
Implementación de
Procesamiento 3
Informe de
implementación del
modelo de visión
Informe de
Implementación de
Procesamiento 4
Informe de Pruebas de
procesamiento 1
Informe de Pruebas de
asuntos abordados y la tareas actualizadas.
Informe que recoge información sobre el protocolo de
la prueba de experimentación 1.
Actualización de pruebas de la herramienta de
procesamiento con clasificación.
Acta de la novena reunión, en el que se apuntan los
temas tratados y la actualización de las tareas del
proyecto.
Se apuntan los datos más relevantes del nuevo
protocolo de experimentación 2.
Se anotan la información del protocolo de
experimentación 3.
Informe de los aspectos del diseño del modelo de
representación de la mirada.
Informe de los aspectos del diseño del nuevo modelo
de representación de la mirada.
Bocetos del diseño de la interfaz gráfica de edición.
Informe del primer diseño de la herramienta de
procesamiento de los registros oculares.
Informe del diseño dos de la herramienta de
procesamiento de los registros oculares.
Informe del tercer diseño de la herramienta de
procesamiento de los registros oculares.
Informe del cuarto diseño de la herramienta de
procesamiento de los registros oculares.
Informe de la implementación de la herramienta de
procesamiento sin clasificación.
Informe de la implementación de la prueba de
experimentación.
Informe de la implementación de la segunda versión
de la prueba de experimentación.
Informe de la implementación de la tercera versión de
la prueba de experimentación.
Informe de la implementación de la segunda versión
de la prueba de procesamiento.
Informe de la implementación de la tercera versión de
la prueba de procesamiento.
Informe de la implementación de la herramienta de
representación de la mirada.
Informe de de la implementación de la cuarta versión
de la prueba de procesamiento.
Informe de pruebas a la implementación de la
herramienta de procesamiento sin clasificación.
Informe de pruebas a la implementación de la
21
procesamiento 1
actualizado
Informe de Pruebas de
experimentación 1
Informe de Pruebas de
experimentación 2
Informe de Pruebas de
experimentación 3
Informe de Pruebas de
procesamiento 2
Informe de Pruebas de
procesamiento 3
Informe de pruebas del
modelo de visión
Informe de Pruebas de
procesamiento 4
PE1.
PE2.
PE3.
PP2.
PP3.
PV.
PP4.
Dat1.
Dat2.
R1.
Doc1.
Doc2.
Registros oculares
Resultados de
procesado
Informe de resultados
Memoria
Presentación
herramienta de procesamiento con clasificación.
Informe de pruebas a la implementación de la prueba
de experimentación.
Informe de pruebas a la implementación de la
segunda versión de la prueba de experimentación.
Informe de pruebas a la implementación de la
tercera versión de la prueba de experimentación.
Informe de pruebas a la implementación de la
segunda versión de la herramienta de procesamiento.
Informe de pruebas a la implementación de la tercera
versión de la herramienta de procesamiento.
Informe de pruebas a la implementación de la
herramienta de representación de la mirada.
Informe de pruebas a la implementación de la cuarta
versión de la herramienta de procesamiento. Se
realiza un informe de pruebas (PP4).
Registros oculares de los sujetos de experimentación.
Datos de los registros procesados por la herramienta
para el estudio.
Informe de resultados de los datos.
Memoria del trabajo.
Presentación del trabajo.
2.3. ANÁLISIS TEMPORAL
El análisis temporal del proyecto se refleja en el GANTT que se muestra en las
figuras 4 y 5. Las tareas que se recogen están clasificadas por según por como se ha
hecho en el apartado anterior. En blanco aparecen las tareas de coordinación; en rojo,
la generación de conocimiento; en amarillo, las tareas de diseño; en azul, las tareas de
desarrollo, y por último en verde, las tareas de documentación.
Figura 4. Diagrama GANT del proyecto desde inicios del mismo hasta mediados de Junio
22
Figura 5: Diagrama GANT del proyecto desde Junio hasta final del proyecto
2.4. COSTES
En un proyecto existen varios costos que han de ser estimados y controlados
para no sobrepasar presupuestos. Los elementos que generan un coste del proyecto
por lo general son varios. En este proyecto se pueden resumir en recursos humanos,
recursos materiales, gastos de reparación y costes indirectos. Los costes en recursos
humanos son el salario que ha de abonarse a los trabajadores del proyecto; los costes
en recursos materiales son el valor de las herramientas que han debido adquirirse
para la consecución del proyecto; los costes en reparación consisten en los gastos en
el arreglo de los recursos materiales que hayan podido estropearse durante la
realización del proyecto, y los costes indirectos son aquellos gastos fruto del empleo
de estancias de trabajo, tales como laboratorios, en los que se incluye el consumo
eléctrico, agua y material de laboratorio.
En el proyecto se contemplan 450 horas totales, si bien en el trabajo completo se
han
empleado
520 horas
añadiendo
horas
de formación
e
investigación.
23
Considerando que el coste de un ingeniero informático está en torno a los 20
euros/hora, el coste relacionado con los recursos humanos ascienden a unos 9000
euros. Por otro lado, los sistemas de soporte empleados tienen un coste que asciende
a los 6000 euros. Durante el desarrollo del proyecto fueron necesarias tareas de
mantenimiento y reparación de estos sistemas lo cual incremento el coste en 1000
euros. Gran parte de las tareas fueron realizadas en las instalaciones de la
Universidad de Sevilla, utilizando sus servicios e infraestructuras, por lo que si este
proyecto de investigación tuviese financiación externa debería contar con unos costes
indirectos, que en este caso pueden estimarse en un 10% del presupuesto total. En
total, el coste definitivo asciende a 17600 euros.
2.4.1. TABLA DE COSTES
Concepto
Coste
Recursos Humanos
9000 €
Recursos materiales
6000 €
Mantenimiento(Reparación)
1000 €
Costes indirectos
1600 €
Total
17600 €
24
25
3. ANÁLISIS DE REQUISITOS
En este proyecto se definen una serie de requisitos, los cuales han sido
clasificados según el estándar IEEE 830-1998[28]. Un resumen de esta clasificación
se muestra en la siguiente figura:
Figura 6: Esquema de clasificación de requisitos.
3.1.
IDENTIFICACIÓN Y ESPECIFICACIÓN DE REQUISITOS
Los requisitos se concretan a continuación siguiendo las recomendaciones del
estándar IEEE 830-1998.
3.1.1. RESTRICCIONES DE DISEÑO
Requisito RD1:
Título: Uso de un sistema en tiempo real.
26
Descripción: Los sistemas de captación y recogida de datos trabajarán en tiempo
real, operando a una frecuencia tal que permita la percepción de los movimientos
microsacádicos.
Importancia: esencial.
Medible: si el sistema trabaja con una frecuencia tal que perciba los movimientos
necesarios para el proyecto y con el menor número de pérdidas posibles.
Alcanzable: requiere de la posibilidad, principalmente de carácter económico, de
obtener sistemas de dicha característica.
Relevante: sin cumplir este requisito, el proyecto cambiará drásticamente sus
objetivos o incluso sería inviable.
Específico: dependiendo de cómo se resuelva el requisito el modo de proceder en el
proyecto variará prácticamente en su totalidad.
Evolución temporal: Es un requisito establecido desde el inicio del proyecto y no se
ha visto sometido a cambio.
Requisito RD2:
Título: Reuniones de proyecto.
Descripción: A lo largo de la realización del proyecto se realizarán reuniones
continuas de los miembros del grupo para hacer un seguimiento de las partes del
mismo y para modificar o establecer nuevos requisitos.
Importancia: esencial.
Medible: realizar las reuniones necesarias para especificar y corregir nuevos aspectos
del proyecto.
Alcanzable: se poseen aulas y/o despachos y la zona de estudio y/o trabajo de todos
los miembros están muy cercanas.
Relevante: las reuniones determinarán los pasos a seguir y los cambios que se
tengan que hacer a la idea general inicial del proyecto.
Específico: las reuniones fueron generales, entre todos los miembros del grupo, o de
campo, entre alumno y tutor del trabajo de fin de carrera correspondiente.
27
Evolución temporal: Se estableció desde comienzos del proyecto. En un principio
sólo se plantearon realizar reuniones generales al finalizar ciertas tareas del mismo,
pero más adelante se empezaron a realizar con objeto de plantear soluciones a
problemas que fueron surgiendo con la evolución del proyecto.
Requisito RD3:
Título: Producto utilizable en sistema operativo Windows.
Descripción: Se establece crear las herramientas software para sistema operativo
Windows.
Importancia: condicional
Alcanzable: Influye a la hora de cómo implementar la totalidad del producto y también
a la hora de elegir aspectos de diseño.
Relevante: cumplir el requisito mejoraría el resultado final, en tanto que sería más
agradable el manejo para el usuario y repercutiría en la eficiencia a la hora de usarlo,
puesto que a quien está destinado el proyecto tiene poco manejo en Linux.
Evolución temporal: Este requisito se define una vez comenzado el proyecto. A
inicios de 2014 se determina la relevancia del requisito. Más adelante, una vez se
trabaja en el laboratorio de fisiología, se hace aún más relevante, puesto que todos los
sistemas informáticos para la experimentación tienen sistema operativo Windows y
prácticamente la totalidad de los miembros del Departamento trabajan con dicho
sistema, por lo que la herramienta software tenía posibilidades de ser usada por el
Departamento en un futuro únicamente si era soportado en Windows.
Requisito RD4:
Título: Implementación de las pruebas en el sistema de representación.
Descripción: Las pruebas de experimentación se deben implementar en el sistema de
representación de pruebas.
Importancia: esencial.
Alcanzable: Debe trabajarse con las opciones que posea el sistema de
representación de pruebas, por lo que puede ser necesaria una formación específica.
Relevante: Es imprescindible para llevar a cabo las pruebas de experimentación.
28
Evolución temporal: Este requisito surge a raíz de la reunión del 4 de abril de 2014,
cuando se decide implementar las pruebas en el sistema especializado que tienen en
el laboratorio.
Requisito RD5:
Título: Uso de un lenguaje soportado por el hardware especializado para
experimentación.
Descripción: El sistema de representación que se proporciona ofrece limitaciones
respecto a la programación, lo que restringe al uso de lenguajes específicos.
Importancia: esencial
Alcanzable: se requiere formarse en uno o varios de los lenguajes que admita el
sistema.
Relevante: es necesario programar para la consecución de otros requisitos esenciales
del proyecto.
Evolución temporal: Surge como consecuencia de la validación del requisito RD5 y al
mismo tiempo.
Requisito RD6:
Título: Creación de batería de imágenes adecuada.
Descripción: se requiere elaborar imágenes como material en que basar la prueba de
experimentación que deberá implementarse.
Importancia: esencial.
Medible: La semejanza con las imágenes especificadas en el diseño de la prueba de
experimentación.
Alcanzable: se trata de imágenes sencillas que pueden crearse con la ayuda de
cualquier editor de imágenes, si bien la cantidad que debía realizarse y la precisión
que se requiere en la disposición de los elementos que aparecen en éstas sugiere la
utilización de programas de diseño gráfico para una mayor eficiencia.
Relevante: es la materia prima en la que se basa la implementación de la prueba de
experimentación.
29
Evolución temporal: Surge a comienzos del proyecto, pero la especificación del
mismo no comienza hasta que se diseña y acepta la prueba de experimentación, el 4
de abril de 2014.
Requisito RD7:
Título: creación de un modelo del movimiento y visión ocular.
Descripción: Idear y realizar un modelo matemático que trate de emular los
movimientos del ojo y el área que visualiza.
Importancia: condicional.
Medible: según el grado de similitud que tenga el modelo con el funcionamiento real
del ojo.
Alcanzable: se requiere un estudio de la estructura y movimiento del ojo.
Relevante: necesario para poder calcular el área de visión del ojo para cumplir con
otros requisitos de carácter condicional.
Evolución temporal: Se establece el 22 de enero de 2014 con objeto de aumentar la
envergadura del proyecto y proporcionar una herramienta de trabajo más completa y
útil para la investigación establecida.
Requisito RD8:
Título: Codificación de las imágenes mostradas y las respuestas realizadas por el
sujeto en la prueba de experimentación.
Descripción: Debido a que es necesario para la investigación conocer qué imágenes
se visualizaron en cada momento, se requiere asociar alguna clase de código que
quede guardado en el registro para que sea fácilmente reconocible a la hora de
analizar los resultados. Además, también se requiere codificar las respuestas que da
el sujeto.
Importancia: esencial
Medible: La codificación debe ser clara y sencilla, apropiada para el sistema de
presentación de pruebas.
Alcanzable: Estudiando las características de las imágenes se puede realizar una
codificación adecuada.
30
Relevante: Sin dicha codificación sería muy difícil e incluso imposible reconocer las
imágenes que se le muestran al sujeto y, por tanto, no se podrá realizar el estudio de
experimentación adecuadamente.
Evolución temporal: Se establece a la hora de implementar la prueba de
experimentación, en Junio de 2014.
3.1.2. REQUISITOS FUNCIONALES
Requisito RF1:
Título: Capacidad de procesado de señales registradas.
Descripción: La herramienta software de análisis debe procesar los registros de
movimientos oculares.
Importancia: Esencial
Medible: El resultado del procesamiento debe ser lo más eficaz posible para que se
facilite la detección de los movimientos.
Alcanzable: es factible conseguir cumplir dicho requisito con cierto margen de
aceptación mediante la elaboración de algoritmos apropiados.
Relevante: sin dicha herramienta la necesidad del compañero de biología no estaría
cubierta e imposibilitaría la realización del estudio de los movimientos microsacádicos.
Evolución temporal: Establecido desde inicios de proyecto. A partir de la aceptación
del primer diseño de las pruebas realización de las primeras pruebas
Requisito RF2:
Título: Disipación del ruido de la señal sin cambios en las propiedades esenciales.
Descripción: Existe ruido durante la realización del registro y que hay que eliminar
para que no interfiera en el procesado y detección, pero sin modificar la información
esencial que sirva para detectar los movimientos del ojo.
Medible: Cuanto más ruido se elimine sin modificar la señal real del registro, mejor.
Alcanzable: Se puede aplicar una u otra técnica dependiendo del carácter del ruido.
Relevante: Para una detección correcta del movimiento se requiere filtrar el mayor
ruido posible.
31
Evolución temporal: Se plantea en la reunión del 11 de Junio y se valida a raíz de
realizar y analizar los resultados de las primeras pruebas.
Requisito RF3:
Título: Detección de movimientos en señales procesadas.
Descripción: Detectar movimientos fruto del procesamiento de los registros del
movimiento de los ojos.
Medible: Es posible medir el grado de cumplimiento del requisito en función de qué
porcentaje de movimientos del ojo es capaz de localizar
Alcanzable: con un procesado previo adecuado se trata de localizar características
apropiadas en el registro.
Relevante: indispensable para el proyecto.
Específico: Los movimientos que se deben de localizar son de carácter brusco, es
decir, se caracterizan por tener una velocidad elevada.
Evolución temporal: Establecido desde inicios del proyecto.
Requisito RF4:
Título: Clasificación de movimientos oculares específicos.
Descripción: Clasificar los movimientos oculares detectados en función de las
propiedades analizadas y que los caracterizan.
Medible: Según cuántos movimientos oculares detectados es capaz de clasificar
correctamente.
Alcanzable: Nuevamente se trata de comprobar características, esta vez de distinta
índole.
Relevante: Es necesario diferenciar los movimientos para incluirlos en la investigación
de forma adecuada o descartarlos.
Específico: Se pretende clasificar en movimientos sacádicos, microsacádicos y
parpadeos, lo demás será descartado.
Evolución temporal: Surge al inicio del proyecto pero se especifican los movimientos
a clasificar con posterioridad.
32
Requisito RF5:
Título: Capacidad del framework para manejar datos masivos.
Descripción: La frecuencia necesaria a la que debe funcionar el sistema de captación
y registro de los ojos para poder detectarse los movimientos microsacádicos,
acompañado del tiempo medio de duración de las pruebas de experimentación, del
orden de minutos, tiene como consecuencia la generación de una gran cantidad de
datos por prueba, que deberán ser soportados por las herramientas de procesado.
Importancia: esencial.
Medible: Debe poderse trabajar con los datos de manera fluida y eficiente.
Alcanzable: Se requiere una implementación eficiente en un lenguaje de
programación adecuado para el manejo de datos y con velocidad de cálculo, junto con
un hardware con especificaciones técnicas aceptables.
Relevante: es necesario ofrecer una herramienta que permita trabajar de forma
eficiente al usuario y dar la posibilidad de observar toda la información recogida, no
obligar a visualizarla por fragmentos.
Evolución temporal: Se establece una vez se hace entrega de registros de pruebas
anteriores hechas por el Departamento de Fisiología, a inicios de diciembre de 2013.
Requisito RF6:
Título: Pruebas de experimentación para el estudio de los microsacádicos en sujetos
de investigación.
Descripción: Prueba de experimentación a la que someter los sujetos de
investigación con objeto de recopilar los datos apropiados sobre las características a
estudiar de los movimientos microsacádicos.
Importancia: esencial
Medible: El grado de semejanza de la implementación al diseño de la prueba
elaborado por el estudiante de biología es una medida del cumplimiento del requisito.
Alcanzable: Se realizará creando las imágenes apropiadas e implementando en el
lenguaje que permita el sistema de representación de la prueba.
33
Relevante: Sin la prueba no se podrá recopilar la información adecuada que permita
realizar el estudio estadístico de los movimientos microsacádicos tal como se
pretende.
Específico: El producto final requiere de la realización de este requisito de manera
óptima y con un grado de cumplimiento máximo.
Evolución temporal: Se establece al inicio del proyecto y se especifica con el primero
diseño de prueba aceptada.
Requisito RF7:
Título: Herramienta de cálculo del área de visualización del sujeto.
Descripción: Herramienta que muestre donde fija la mirada el sujeto de
experimentación durante las pruebas, destacando el tipo de movimientos oculares que
se realizan.
Importancia: condicional.
Medible: Se mide con el grado de precisión con respecto hacia donde realmente mira
el sujeto durante una fase de calibración.
Relevante: aunque su creación tendría gran valor en tanto que mejoraría en gran
medida el producto, no es imprescindible. La herramienta es útil principalmente para la
comprobación de errores durante la realización de la prueba, así como para otras
aplicaciones si se consigue un alto grado de precisión.
Alcanzable: La herramienta se puede realizar con resultados más o menos óptimos
realizando un modelo que represente la realidad con mayor o menor precisión.
Evolución temporal: surge junto con el requisito RD7.
Requisito RF8:
Título: Detección de movimientos inválidos durante la realización de la prueba
Descripción: las pruebas de experimentación deben realizarse a los sujetos de forma
controlada y procurando que no realice ninguna acción que perturbe las condiciones
que se preestablecen para una correcta interpretación, por lo que una herramienta de
apoyo que detecte movimientos oculares inválidos en la prueba puede ser de gran
utilidad.
34
Importancia: condicional
Medible: La herramienta debe ser fiable y acertar lo máximo posible.
Alcanzable: A partir del análisis de los datos del registro y conociendo las
características de los movimientos válidos en la prueba se pueden detectar los
movimientos que no deberían ocurrir durante la prueba.
Relevante: Visualizando el registro completo de manera directa por el usuario podrá
localizar los movimientos inválidos con mayor o menor dificultad. Son pocos los casos
en los que se dan estas situaciones y por ello la herramienta ofrecerá una mayor
comodidad para trabajar, pero no es algo completamente imprescindible.
Evolución temporal: Surge con el primer diseño de prueba de experimentación
aceptada. Más adelante se especifica que dicha detección debería implementarse en
la herramienta de representación del movimiento del ojo, y en el clasificador.
Requisito RF9:
Título: Editor de imágenes para la generación de pruebas.
Descripción: Herramienta para la edición de imágenes sencillas para su uso en
pruebas de experimentación.
Importancia: opcional.
Medible: Lo completo que llegase a ser la herramienta sería una medida cualitativa de
este requisito.
Alcanzable: Es posible la realización de una interfaz sencilla que permita la creación
de imágenes usando alguna librería de procesamiento de imágenes.
Relevante: La importancia de la realización de esta herramienta no queda clara hasta
el diseño final de la prueba de experimentación, pero podría tratarse como opcional.
La creación de este programa daría libertad a la compañera de biología a generar las
imágenes que requiriese para la prueba de experimentación.
Evolución temporal: Se establece en la reunión del 10 de enero de 2014. Se
especifica la funcionalidad de la herramienta con los primeros diseños de las pruebas
de experimentación.
Incompatibilidades: El requisito acaba descartándose con la aceptación de pruebas
de diferente complejidad.
35
3.1.3. REQUISITOS DE INTERFAZ
Requisito IN1:
Título: Comunicación entre el hardware de captación del movimiento ocular y el
sistema de registro.
Descripción: El hardware de captación del movimiento ocular debe estar conectado a
algún sistema capaz de recopilar los datos que genere en forma de registros oculares.
Importancia: Esencial.
Medible: en función de cuánta información es capaz de recopilarse usando como
referencia la potencia del hardware de captación y también por cuánto ruido interfiere
en la comunicación y afecta al registro.
Alcanzable: Hay sistemas especializados que por lo general se ofrecen junto con el
hardware si este es sofisticado y se vende como herramienta de investigación.
Relevante: se requiere almacenar los datos para posteriormente poder ser procesado
por la herramienta de captación y clasificación.
Específico: Según cómo se resuelva éste requisito se necesitará que las
herramientas determinadas por los requisitos RF1 y RF3 deban ser de mayor calidad.
Requisito IN2:
Título: Comunicación entre el sistema de representación de pruebas y el sistema de
registro.
Descripción: El sistema de representación de pruebas de experimentación debe
comunicarse con el sistema de recopilación de los registros oculares para tener
constancia de los tiempos de representación y cambio entre cada elemento de dichas
pruebas.
Importancia: Esencial.
Medible: El grado de cumplimento se puede medir en función del retraso que puedan
tener la comunicación de ambos sistemas.
Alcanzable: con un software adecuado y conexiones entre ambos sistemas se
conseguiría cumplir el requisito.
36
Relevante: Es necesario que se cumpla este requisito para poder tener en cuenta los
cambios en tiempo real, sin necesidad de estimación y usar dicha información en la
herramienta definida por RF3 y RF4 para facilitar el estudio de los datos en la
investigación de los movimientos oculares.
Evolución temporal: Surge con el requisito IN5.
Requisito IN3:
Título: Facilidad de manejo de las herramientas.
Descripción: la herramienta debe ser de fácil uso y proporcionar información
relevante para el estudio con poco esfuerzo.
Importancia: esencial.
Medible: Menor dificultad del usuario para trabajar con la herramienta.
Alcanzable: Debe estudiarse la mejor forma de presentar la herramienta y el modo de
facilitar su uso, remodelando en base a las opiniones de las versiones iniciales.
Relevante: Es esencial facilitar el uso de la herramienta para hacer menos tedioso la
tarea de recopilación de la información necesaria para el estudio de experimentación.
Evolución temporal: Establecido con el inicio del proyecto.
Requisito IN4:
Título: Representación completa de los movimientos detectados.
Descripción: Debe presentarse visualmente los movimientos en el registro y
almacenar los datos calculados para cada uno.
Importancia: Esencial.
Medible: cantidad de datos relevantes calculados y almacenados, y muestra por
pantalla cómoda y agradable.
Alcanzable: Se pueden almacenar sin problemas los datos y representarlos requiere
un estudio previo de los métodos adecuados para ello.
Relevante: Es importante mostrar visualmente los datos para facilitar el trabajo de
interpretación y esencial guardar los cálculos para su estudio.
37
Evolución temporal: Establecido al inicio del proyecto. Concretado una vez aceptado
un diseño de pruebas, en el que se determinaron los movimientos oculares relevantes
para el estudio, así como los datos que habrá que analizar de ellos.
Requisito IN5:
Título: Representación de los tiempos controlados durante el registro.
Descripción: Debe poderse contemplar los tiempos relevantes (inicio de imágenes,
pulsaciones del usuario) en conjunto con los registros.
Importancia: esencial.
Alcanzable: El control de los eventos ocurridos durante la prueba están recogidos por
el sistema de registro, quedaría representarlos junto con los datos de movimientos del
ojo registrados.
Relevante: Es necesario conocer el tiempo de éstos eventos para que se realice un
estudio correcto de las propiedades de los movimientos microsacádicos que se
pretenden estudiar.
Evolución temporal: Establecido con la aceptación del diseño de la prueba de
experimentación inicial.
Requisito IN6:
Título: Representación intuitiva del área de visualización del sujeto
Descripción: El modo en que se presente el área donde fija la mirada el sujeto en
cada momento debe ser claro, de fácil comprensión.
Importancia: esencial
Medible: Dado por la facilidad de adaptación del usuario a la forma en que se muestra
la zona de visión por pantalla.
Alcanzable: Calcular el área de visión y estudiar la forma de representarlo en algún
lenguaje de programación.
Relevante: Si no se muestra adecuadamente la información sobre el área la
herramienta carecería de utilidad.
Específico: Se representa únicamente la zona de máxima agudeza visual,
fisiológicamente perteneciente a la foveola.
38
Evolución temporal: Establecido junto con el requisito RF7.
Requisito IN7:
Título: Funciones de apoyo en la recopilación de la información de los movimientos.
Descripción: Facilitar la recopilación de los datos generados por la herramienta de
procesamiento con funcionalidades de filtrado y clasificación por tiempo.
Importancia: opcional
Medible: Según la mejora en eficiencia de recopilación de resultados por el usuario.
Alcanzable: Los datos generados por la herramienta de detección son manipulables.
Relevante: La creación de funcionalidades de estas características acelerará la
experimentación y obtención de resultados.
Específico:
pueden
ser
de
diversa
índole,
como
filtros
por
información,
reestructuración de los datos, clasificación, etc.
Evolución temporal: surge en julio a raíz de poseer poco tiempo para la consecución
del proyecto
3.1.4. REQUISITOS DE CALIDAD
Requisito CA1:
Título: Superación de márgenes de detección y clasificación de los movimientos del
ojo.
Descripción: Deben detectarse un porcentaje de movimientos oculares elevado que
satisfaga a los miembros de biología para su estudio y la clasificación de los
movimientos oculares debe superar también un porcentaje de acierto.
Importancia: Esencial
Relevante: Depende de que lo dificulte mucho un grado bajo de completitud de IN1.
Relevante: Sin unos porcentajes elevados de detección y sin una correcta
clasificación de movimientos el proyecto de investigación de los movimientos
microsacádicos erraría.
Evolución temporal: Establecido al inicio del proyecto y especificado con el diseño de
la prueba aceptado.
39
Requisito CA2:
Título: Cumplir con el diseño de la prueba de experimentación.
Descripción: Las pruebas de experimentación deben cumplir explícitamente el diseño
que establezcan los miembros de biología.
Importancia: esencial
Alcanzable: Depende de si se proporciona un sistema lo suficientemente completo del
definido en SO3 y se forma uno adecuadamente sobre el mismo.
Relevante: El cumplimento del mismo permitirá recopilar los datos que necesitan los
miembros de biología para su investigación.
Evolución temporal: Establecido al inicio del proyecto.
Requisito CA3:
Título: Captar porcentaje elevado de movimientos no válidos en la representación de
la mirada.
Descripción: La representación de la posición de la mirada debe captar un porcentaje
elevado de movimientos no válidos para la prueba de experimentación.
Importancia: esencial
Alcanzable: Con un modelo adecuado se podrá cumplir el requisito.
Relevante: Es requisito necesario para que la herramienta sea fiable y no se rechacen
o acepten pruebas de manera equivocada.
Evolución temporal: Establecido con el diseño de la prueba.
Requisito CA4:
Título: Detección de movimientos efectiva en registros de usuarios de pruebas
distintos.
Descripción: Se conoce que los movimientos del ojo de pequeña amplitud (deriva y
temblores, sobre todo) se producen de distinta forma en cada persona y esto es algo
que puede influir en el procesamiento y detección de movimientos microsacádicos, por
lo que el algoritmo debe procurar controlar dichas variaciones o lograr abstraerse de
éstas para poder funcionar con el mayor número de usuarios distintos posible.
40
Importancia: esencial.
Medible: El número de sujetos al que se le pueda detectar los movimientos de forma
efectiva es un buen estimador del requisito.
Alcanzable: Se debe estudiar varios sujetos con formas distintas de producir los
movimientos y poner a prueba el algoritmo con varios de ellos, modificándolo en
función de los resultados.
Relevante: Es indispensable debido a que el estudio que se quiere realizar con las
herramientas, dado su carácter estadístico, debe realizar las pruebas sobre la
población en general, con movimientos oculares dispares entre éstos.
Evolución temporal: Establecido tras analizar los registros de las primeras pruebas.
3.1.5. REQUISITOS DE EVOLUCIÓN
Requisito EV1:
Título:
Generación
inicial
del
procesamiento
y
detección
de
movimientos
microsacádicos de forma general.
Descripción: El procesamiento y detección de movimientos microsacádicos debe
realizarse de forma general hasta concretarse el diseño de la prueba o pruebas de
experimentación que establezcan los compañeros de biología.
Importancia: esencial
Alcanzable: Dependiendo de cómo difieran la idea de prueba inicial de la diseñada
finalmente se deberá rectificar más o menos el modo de funcionar de la herramienta
de procesado y detección y será mayor o menor el grado de cumplimiento.
Relevante: Es esencial para no tener que rectificar demasiado sobre el trabajo ya
elaborado. Este requisito es relevante para no retrasar la finalización de la
herramienta.
Evolución temporal: Establecido tras la entrega de los registros de pruebas
anteriores realizadas por el proyecto (22 de noviembre de 2013).
Requisito EV2:
Título: Prueba de experimentación susceptibles a cambio de los tiempos.
41
Descripción: Las pruebas de experimentación están sujetas a cambios en la duración
de las imágenes mostradas.
Importancia: Esencial.
Medible: Número de imágenes afectadas.
Alcanzable: Supone un cambio en la implementación, que al ser sólo en la duración
no supone mucha dificultad.
Relevante: La implementación de la prueba debe amoldarse exactamente al diseño
establecido por los miembros de biología.
Evolución temporal: Surge tras la aceptación del diseño de la primera prueba de
experimentación.
Requisito EV3:
Título: Prueba de experimentación susceptible a cambio de los elementos mostrados.
Descripción: Las pruebas de experimentación están sujetas a cambios en las
imágenes mostradas y su número.
Importancia: esencial.
Medible: Número de imágenes cambiadas eliminadas y añadidas.
Alcanzable: Supone un cambio en la implementación, en general de mayor
envergadura que el cambio de los tiempos expuestos en EV2.
Relevante: La implementación de la prueba debe amoldarse exactamente al diseño
establecido por los miembros de biología.
Evolución temporal: surge al mismo tiempo que el requisito EV2.
Requisito EV4:
Título: Pruebas implementadas susceptibles a cambio una vez probadas.
Descripción: El diseño de las pruebas de experimentación puede verse modificada
una vez probada la implementación de la prueba original, debido a que no recopile la
información que se esperaba al ser diseñada.
Importancia: esencial
42
Relevante: Es necesario hacer los cambios pertinentes en los aspectos de la prueba
implementada que determinen los miembros de biología y es posible realizarlos si
dichos cambios pueden ser contemplados por el sistema de representación de las
pruebas de experimentación. El cambio supone modificar o realizar una nueva
implementación.
Evolución temporal: Surge junto con los requisitos EV2 y EV3.
3.1.6. REQUISITOS DE PROYECTO
Requisito PR1:
Título: Especificidad del framework dependiente del diseño de las pruebas.
Descripción: La determinación del diseño de la prueba de experimentación para el
estudio de los microsacádicos determinará las funciones y estructura específicas del
framework para el estudio de los movimientos microsacádicos.
Importancia: esencial
Relevante: Necesario para especializar el conjunto de herramientas lo suficiente como
para que cumplan el propósito requerido, esto es el estudio de ciertos movimientos
oculares en un situación concreta por parte de los investigadores de biología.
Evolución temporal: Establecido al inicio del proyecto.
Requisito PR2:
Título: Representación de la mirada del sujeto sometido a las pruebas de
experimentación.
Descripción: Según el carácter de la prueba de experimentación que se diseñe la
representación de la zona de visión del sujeto de pruebas debe mostrarse con otras
características, tales como distinta escala o representación de movimientos inválidos
en distintas situaciones.
Importancia: esencial.
Alcanzable: depende de la prueba, si bien es factible prácticamente todo lo que
suponga un cálculo con los datos recogidos en el registro.
Relevante: El grado de utilidad de la herramienta depende de poder salvar estos
factores.
43
Evolución temporal: Establecido tras la implementación de las pruebas de
experimentación.
Requisito PR3:
Título: Modificaciones en la herramienta de detección de movimientos en función de la
estructura de los registros.
Descripción: La representación de los datos recogidos una vez realizadas las
pruebas puede hacer variar el procesamiento y detección de los movimientos.
Importancia: Esencial
Alcanzable: hacer las modificaciones pertinentes del modo en que la herramienta de
procesamiento y detección actúa hasta que satisfaga el requisito de calidad CA1.
Evolución temporal: Desde la aceptación del diseño de la primera prueba de
experimentación.
Requisito PR4:
Título: Finalización antes de fecha límite.
Descripción: Finalización del proyecto por parte de ambos miembros antes del día 3
de Septiembre.
Importancia: esencial.
Medible: Grado de completitud del proyecto antes de la fecha
Evolución temporal: Establecido desde el inicio de proyecto, pero con fecha de
finalización en junio de 2014. A mediados de abril se plantea posponer a septiembre,
debido al retraso en el proyecto entre otras razones por el tiempo perdido en reparar el
sistema de detección de movimientos oculares.
3.1.7. REQUISITOS DE SOPORTE
Requisito SO1:
Título: Hardware de captación de movimientos oculares.
Descripción: El hardware con capacidad de captación de movimientos del globo
ocular mediante métodos no intrusivos que entorpezca el movimiento.
Importancia: Esencial.
44
Relevante:
Necesario
para poder obtener información de los movimientos
microsacádicos.
Medible: Que tenga la suficiente precisión y potencia para captar movimientos de
amplitud pequeña y de una duración de milisegundos.
Alcanzable: puede obtenerse en función del presupuesto.
Específico: el modo en cómo funciona determinará el modo en que se registren los
datos y por tanto cómo deben crearse el framework.
Evolución temporal: Establecido desde inicios de proyecto.
Requisito SO2:
Título: Sistema de registro de datos captados por hardware de detección de
movimientos oculares.
Descripción: Sistema de registro de datos captados por hardware de detección de
movimientos oculares.
Importancia: Esencial
Relevante: Es necesario para obtener los datos.
Medible: Cuánto más preciso y especializado sea menos interferencias habrá que
paliar de los registros creados en el procesamiento.
Específico: Debe ser capaz de recopilar la mayor parte de la información que pueda
captar el aparato.
Evolución temporal: Establecido desde inicios de proyecto.
Requisito SO3:
Título: Sistema de presentación de pruebas de experimentación.
Descripción: Sistema cuyo objetivo es presentar las pruebas de experimentación que
se implementen para la investigación de los microsacádicos.
Importancia: esencial.
Relevante: Sin cumplir este requisito no sería posible la realización del proyecto.
45
Alcanzable: Es factible obtener un sistema con tales características y amoldable a las
pruebas.
Medible: Debe ofrecer flexibilidad y ser lo bastante completo como para permitir
implementar las pruebas pertinentes según el diseño de la prueba y ser capaz de
informar de los tiempos de inicio y fin de las fases de la prueba.
Específico: Dependiendo de cómo funcione se deberá adquirir conocimientos sobre
cómo implementar las pruebas de experimentación.
Evolución temporal: establecido desde inicio de proyecto
Requisito SO4:
Título: Registro temporal de eventos durante las pruebas.
Descripción: Los sistemas de registro deben tener capacidad de controlar los tiempos
de eventos ocurridos durante la prueba, tales como cambios de pantalla.
Importancia: Esencial
Medible: El grado de exactitud con el que se controla los tiempos y respecto que
referencia (inicio de la prueba o reloj del sistema).
Alcanzable: La mayoría de los sistemas tendrán opción de controlar tiempos, más
tratándose de sistemas en tiempo real.
Relevante: Necesario para la investigación de los movimientos microsacádicos.
Evolución temporal: establecido tras la aceptación de la primera prueba de
experimentación.
46
4. ESTADO DEL ARTE
Para llevar a cabo el proyecto se requirió estudiar varias áreas concretas de la
ciencia que estaba relacionada intrínsecamente con las tareas de las que consta el
proyecto. La primera, no relacionada con el campo informático pero que influye en el
trabajo, consiste en la fisiología del ojo y los elementos que se relacionan con éste
órgano para conferirle movimiento. En segundo lugar, se estudiará los sistemas de
registro más adecuados actualmente disponibles para captar el movimiento de los
ojos. Tercero, se obtendrá información sobre el procesamiento de señales digitales,
que son el resultado de emplear un sistema de registro. Por último, se comentará
aspectos para el diseño de un modelo físico que emule movimientos.
4.1. MOVIMIENTOS OCULARES Y ASPECTOS FISIOLÓGICOS
Nuestros ojos están en continuo movimiento, incluso cuando fijamos la mirada.
Estos movimientos pueden clasificarse en varios tipos, según su amplitud, duración y
frecuencia. Dada la variedad de dichos movimientos, cabe plantearse varias
preguntas. Primero, si tendrán todos los movimientos el mismo origen, esto es, estarán
todos los movimientos causados por el mismo grupo de músculos o por el contrario
hay diferentes grupos encargados de movimientos concretos; segundo, qué funciones
tendrán, si es que los tienen, estos movimientos, y tercero, qué desencadena a cada
uno de estos movimientos. Hay preguntas que, según para qué tipo de movimiento,
aún no hay respuesta o están aún pendientes de ser corroboradas. Esto es debido en
gran parte a la dificultad que había hasta hace poco (finales de siglo) para recoger
muestras apropiadas de los movimientos objeto de estudio. Hoy en día, sin embargo,
el avance tecnológico ha conseguido dar un paso más allá en la forma de adquisición
de registros de respuestas neuronales y de la posición del ojo.
En este apartado se describirán los grupos musculares encargados de generar
los movimientos de nuestros ojos, los tipos de movimientos y las técnicas más usadas
para registrarlos.
4.1.1. MÚSCULOS ENCARGADOS DEL MOVIMIENTO
En el funcionamiento del ojo intervienen varios músculos. Éstos se clasifican
claramente en dos grupos: intrínsecos y extrínsecos[2]. Los primeros se encuentran en
el interior del órgano y se tratan del músculo ciliar e iris. Éstos no intervienen en el
movimiento del ojo. El iris se contrae o dilata para regular la entrada de luz que entra
47
en el interior del ojo, mientras que el músculo ciliar actúa sobre el cristalino para
enfocar el ojo y poder así visualizar objetos lejanos y cercanos.
Son los músculos extrínsecos los
encargados de mover el globo ocular y
dirigir la mirada. Se llaman así porque no
se encuentran en el interior del ojo, sino
que se adhieren a éste en su periferia,
en el interior de la órbita. Concretamente
son seis músculos por cada ojo, cuya
acción
combinada
permiten
el
movimiento vertical, horizontal y de Figura 7:Músculos extrínsecos del ojo. (Imagen
obtenida de la página web de la junta de
rotación del globo ocular. Estos seis Andalucía)
músculos se dividen en dos grupos:
rectos y oblicuos[3] (ver figura 7).
Músculos rectos
Los músculos rectos se clasifican por parejas, llamados antagonistas porque la
contracción de uno de los que componen el par supone la dilatación del otro.
Por una parte están el recto medial (o interno) y recto lateral (o externo), que
mueven el ojo horizontalmente, esto es, el medial mueve el ojo hacia dentro y el lateral
hacia fuera.
Por otra parte tenemos el músculo recto superior y el recto inferior, que
principalmente mueven el globo ocular en sentido vertical, pero también influyen en el
eje horizontal e incluso en la torsión del ojo. En concreto, el músculo recto superior
mueve el ojo hacia arriba, hacia dentro y rota en sentido nasal, es decir, hacia abajo,
mientras que el recto inferior hace todo lo contrario.
Músculos oblicuos
Los músculos oblicuo superior e inferior tienen una acción de torsión
predominante. El oblicuo superior se encarga principalmente de rotar el ojo en sentido
nasal, pero también lo mueve hacia abajo y hacia fuera. El oblicuo inferior, por el
contrario, efectúa una rotación en sentido temporal de forma predominante (contrario a
nasal, hacia arriba), pero también mueve el ojo de forma secundaria hacia arriba y
hacia fuera. Al contrario que ocurría con los otros músculos, estos dos no son
antagonistas.
48
Características del movimiento ocular
Los movimientos complejos se producen por la contracción coordinada de varios
músculos. Además, los músculos de ambos ojos también deben de estar coordinados
entre ellos para así formar una única imagen en el cerebro. A esto se le denomina
mirada conjugada[2]. En definitiva, el movimiento de los ojos consiste en la contracción
de un conjunto de los músculos que están adheridos a él, de forma que éstos estiran
del globo ocular en una dirección (ver figura 8). Como consecuencia, estos
movimientos no son exactamente esféricos. Este hecho hará bastante dificultosa la
tarea de crear un modelo que represente el movimiento real del ojo.
Figura 8: Movimientos básicos del globo ocular son consecuencia de la contracción o dilatación de los
músculos extrínsecos del mismo. La combinación de acciones de estos músculos dan lugar a
movimientos complejos del ojo. (imagen obtenida de drtbalu.com)
Los músculos extrínsecos del ojo, al contrario que los intrínsecos, son músculos
estriados, lo que quiere decir que son voluntarios, podemos usarlos conscientemente.
Esto nos permite realizar movimientos sacádicos, movimientos bruscos empleados
para mirar rápidamente en dirección a algún estímulo repentino o para explorar
nuestro entorno. No obstante, en estos músculos también pueden darse contracciones
de forma involuntaria. En el ojo aparecen de diversas formas. A la hora de fijar la
mirada los movimientos predominantes son los de deriva, los temblores y los
movimientos microsacádicos.
4.1.2. ÁREA DE VISIÓN DEL OJO[19]
49
El ojo tiene un ángulo de visión de 180 grados en el plano horizontal y unos 130
grados en el plano vertical, 60 grados por encima y 70 grados por debajo de la vertical.
No obstante, la precisión de lo que se observa en esa área no es la misma. Esto es
debido a que observar con todo detalle tal amplitud sería demasiada información como
para ser procesada por el cerebro en cada instante de tiempo. Es por ello que en las
zonas más alejadas al centro del ojo se visualizan de forma menos precisa, dejando la
zona de mayor agudeza visual donde centramos la mirada, para divisar aquello en los
que ponemos nuestra atención con el mayor lujo de detalles posible al alcance de
nuestro sentido de la vista.
La zona de mayor agudeza visual del ojo recibe el nombre de fóvea. Esta zona
debe esta cualidad a la gran densidad de unas células fotorreceptoras llamadas
conos; aunque por contra posee menos densidad de las otras células receptoras del
ojo, los bastones, que son muy sensibles a la luz y es capaz de discernir mejor
estructuras en condiciones de baja luminosidad.
La región más interna de la fóvea recibe el nombre de foveola, en la que
prácticamente sólo hay conos. Tiene un diámetro de 1.7 grados y es donde se obtiene
mayor nitidez. La fóvea en conjunto tiene 7.2 grados de diámetro. Las zonas
adyacentes a la fóvea son la parafóvea y la perifóvea, que si los vemos como aros
que rodean las zonas más internas, tienen una anchura de 2.4 y 7.2 grados,
respectivamente. En la figura 9 se pueden observar las regiones comentadas.
Figura 9: Áreas de mayor agudeza visual del ojo humano. Imagen obtenida del Departamento de
Fisiología de la facultad de Biología.
El presente proyecto se centra en esta región ocular ya que la experimentación
propuesta por parte de los miembros de biología consiste en analizar y evaluar los
movimientos del ojo estimulando dicha región.
50
4.1.3. TIPOS DE MOVIMIENTOS Y CARACTERÍSTICAS
Según el carácter voluntario o involuntario de las contracciones de los músculos
extrínsecos del globo ocular, como se ha mencionado anteriormente, existen distintos
tipos de movimientos del ojo.
Los movimientos sacádicos
Uno de los movimientos voluntarios más característicos de los ojos, junto con los
que se encargan del seguimiento de elementos en movimiento lento, son los
sacádicos. Éstos son movimientos rápidos del ojo que tienen como función principal la
exploración del entorno en la búsqueda de algo que nos llama la atención. Los
humanos no miramos una escena estática por lo general, sino que tenemos los ojos
en movimiento buscando partes interesantes de nuestro alrededor para, con éstas, ir
construyendo un mapa mental. A la hora de visualizar una escena en frente nuestra o
cuando leemos, nuestros ojos realizan estos movimientos bruscos como los que se
presentan en la figura 10 y se detienen en varias ocasiones, moviéndose muy
rápidamente entre cada parada. Aunque gran cantidad de estos movimientos son
voluntarios, lo que no puede controlarse es la velocidad de los mismos, los ojos se
mueven a la máxima velocidad que les sea posible[4].
Figura 10: Movimientos sacádicos producidos durante la lectura y situación del centro del ojo
tras dichos movimientos (imagen obtenida de Wikipedia.org)
Uno de los motivos por los que se producen estos movimientos es que sólo la
parte central de la retina, llamada fóvea, es la que posee la capacidad de ver en alta
51
resolución. Esta zona es muy pequeña en los seres humanos (1 a 2 grados
aproximadamente). Moviendo el ojo de manera que pequeñas partes de nuestro
entorno puedan ser advertidas con mayor resolución, se pueden optimizar los recursos
del cuerpo. También destaca en los movimientos sacádicos la función de corrección
de la orientación de la mirada.
Un movimiento sacádico puede también ser consecuencia involuntaria a un
movimiento brusco de la cabeza hacia un lado en respuesta a un estímulo fuerte como
un ruido muy sonoro o la detección de un movimiento repentino captado por el ojo en
su periferia.
Estos movimientos son los más rápidos producidos por el cuerpo humano,
llegando hasta los 900 grados por segundo. Tienen una velocidad de reacción a
estímulos inesperados de unos 200 milisegundos y una duración de entre 20 a 200
milisegundos, dependiendo de su amplitud (20 a 30 en la lectura).
La amplitud de un movimiento ocular mide los ángulos que se desplaza durante
el movimiento. La velocidad de una sacada depende linealmente de la amplitud, esto
es, se alcanza una mayor velocidad con amplitudes mayores.
Los movimientos microsacádicos
Como su nombre indica, se tratan de
movimientos que tienen mucha similitud con los
sacádicos, en tanto que son movimientos bruscos
de ambos ojos realizados al unísono en la misma
dirección, pero de una amplitud menor, tanto que
incluso la mayoría de éstos son imperceptibles
para el ojo humano. En la figura 11 se puede
apreciar
la
magnitud
de
los
movimientos
microsacádicos en relación con su frecuencia. Otra
Figura 11: gráfica de la frecuencia de
diferencia estriba en que todo microsacádico es un los microsacádicos en función de su
amplitud. Por norma general, se ha
movimiento involuntario, mientras que los sacádicos establecido que un microsacádico es
pueden ser de ambas naturalezas, tanto voluntarios aquel que no supera 1 grado de
como involuntarios. No obstante, tal es su similitud
amplitud (Imagen obtenida de REF.
1).
con los movimientos sacádicos que existen teorías
que
plantean incluso la posibilidad de que sean el mismo tipo de movimiento,
diferenciados sólo por la amplitud. Así, numerosos estudios han coincidido en
52
considerar los microsacádicos como movimientos con cierto grado de amplitud como
máximo[5].
Otra propuesta a la diferencia entre ambos es que los movimientos sacádicos se
producen en tareas de vista libre o en la exploración entre periodos de fijación,
mientras que los movimientos microsacádicos se producen cuando dejamos fija la
mirada en algo, sea durante la exploración o en otras situaciones. Esta propuesta está
sin comprobar debido a la dificultad de determinar cuando un sujeto tiene su vista
fijada o no. Cuando exploramos o buscamos algo con la mirada la mayoría de los
movimientos sacádicos realizados son involuntarios, con lo cual preguntarle a un
sujeto de pruebas si está realizando exploraciones o fijaciones tendría pocos o nulos
resultados esclarecedores; además, muy posiblemente hacer pensar al sujeto durante
la prueba perturbaría la información registrada por la tecnología empleada.
Aunque los comienzos en la investigación de este tipo de movimientos datan de
los años cincuenta[6], debido a los resultados obtenidos por métodos no
suficientemente precisos y sofisticados como para conseguir muestras aceptables
para su estudio y análisis, se subestimó la importancia de estos movimientos y se dejó
de lado su investigación concluyendo que no tenían utilidad alguna en el mecanismo
de visión[7]. A comienzos de siglo, sin embargo, se retomó el estudio de éstos ya que
se vio facilitado gracias a los avances en la tecnología y la aparición de nuevos
métodos de adquisición y análisis de información. El empleo de nuevas técnicas, que
se caracterizan principalmente por ser de carácter no intrusivo (no requiere contacto
físico para el registro de datos), tuvo como resultados muy distintos a los de décadas
anteriores y gran parte de las investigaciones coincidieron en que los microsacádicos
sí eran relevantes para una correcta visión. No obstante, hay muchos estudios con
resultados aún pendientes de ser corroborados y también queda mucho por investigar
sobre las utilidades de estos movimientos.
Las investigaciones realizadas durante la década anterior han traído algunos de
los descubrimientos más importantes en lo que respecta a los microsacádicos. Si bien
los movimientos sacádicos tienen una utilidad comprobada en la función de la vista,
ahora surgen varias propuestas para los microsacádicos.
Experimentos destinados a comprobar la utilidad de los microsacádicos
producidos por la activación de células oculares primarias (conos y bastones),
obtuvieron resultados interesantes. Resultaba que los sujetos de estudio, durante
etapas de fijación visual, iban perdiendo la visión de las zonas periféricas y
53
parafoveales, zonas inmediatamente exteriores a la zona de acción de la fóvea
(recuérdese que la fóvea era la zona donde se generaban las imágenes con mayor
resolución del ojo). En esta situación, con el comienzo de un movimiento
microsacádico, la visión de estas zonas se restauraba, lo cual llevó a establecer una
relación entre estos movimientos y la visión ocular. Estudios posteriores extendieron
estas conclusiones a otros paradigmas del desvanecimiento de las imágenes en el ojo,
se conectó los microsacádicos con mecanismos en contra de efectos ilusorios[8].
Estudios indicaron que los movimientos oculares más importantes a la hora de
restaurar la visión durante la fijación eran los microsacádicos, ya sean para las zonas
de la fóvea como las periféricas[9]. Además, con esto se relacionan con los sacádicos,
que actuarán para restaurar la imagen en función de su tamaño, y concuerda con la
idea de que sacádicos y microsacádicos son el mismo tipo de movimientos. Los
estudios también se han topado con el hecho de que varios microsacádicos al unísono
tienen mayor efecto a la hora de recobrar la visión que uno solo, como si se sumasen
sus efectos[9].
Otra función que se le atribuyen a los microsacádicos es la de conseguir realizar
tareas de alta agudeza visual. Esta propuesta está defendida por resultados obtenidos
en estudios que trataban con sujetos que tenían que enhebrar una aguja[10]. Modelos
computacionales que emulan el comportamiento de la retina ante microsacádicos
sugieren además que estos movimientos mejoran la resolución espacial. También se
han localizado estos movimientos en durante la vista libre y en pruebas de búsqueda.
Como pasaba con los movimientos sacádicos, se plantea la posibilidad de que
los microsacádicos sean una técnica del sistema visual para recopilar información de
manera óptima[5]. Los microsacádicos evocan respuestas pasajeras en neuronas
visuales. Para dar respuesta a estas afirmaciones se pueden emplear, hoy en día,
aparatos de registros oculares que procesen la información a mayor frecuencia que
con la que reacciona el ojo.
Los movimientos sacádicos a veces tienden a ser suprimidos de la visión durante
etapas de exploración del entorno, posiblemente para mantener cierta estabilidad
visual. Se piensa lo mismo de los microsacádicos pero en otras situaciones. Por
ejemplo, se han contemplado una disminución de los microsacádicos en ciertas etapas
de la fijación[11]. Se piensa que esta disminución en la frecuencia de aparición de los
movimientos microsacádicos es con motivo de, al igual que ocurría con los sacádicos,
mantener cierta estabilidad visual, complementándose con su cualidad para
contrarrestar el desvanecimiento de las imágenes en el ojo. Futuros estudios deberán
54
determinar cómo se comporta el incremento-decremento de las activaciones de los
microsacádicos[5].
Son, en definitiva, muchas funciones atribuidas y más o menos confirmadas pero
aún sin ser totalmente corroboradas. En el futuro se vislumbra una teoría unificada que
pueda explicar definitivamente todos los aspectos concernientes a estos movimientos.
Temblores
Los temblores oculares son movimientos continuos del ojo, de alta frecuencia y
amplitud corta. Se producen incluso cuando aparentemente el ojo está quieto y es
debido a la actividad constante del tronco cerebral sobre el nervio ocular. Por ello, es
útil para diagnosticar el estado del tronco cerebral, ya que la falta de componentes de
altas frecuencias en el temblor supone una disminución de su actividad. Hoy en día,
se discute sobre la posible intervención de los temblores en la visión, ya que, como se
ha indicado, el movimiento del ojo es fundamental para no perder la imagen que
estemos visualizando; no obstante, de tener relación, no tiene tanto efecto como los
microsacádicos, que tienen mayor amplitud y se mueven más rápidamente.
4.2. SISTEMAS DE ADQUISICIÓN
El estudio de los microsacádicos y aspectos relevantes del movimiento ocular y
de la visión son tareas constantes durante todo el proyecto. Para la captación de los
movimientos microsacádicos se precisa de un instrumento de registro de alta precisión
para percibir leves cambios en la dirección de la mirada. Para la detección de
movimientos oculares se pueden emplear varias técnicas de diferente índole. Cada
una tiene sus pros y sus contras, pero ninguna se impone con respecto a otra en todos
los sentidos. Por ello, es adecuado concretar las bondades y desventajas que tiene el
empleo de todas estas técnicas para así elegir con criterio cuál es la más idónea para
emplear en un proyecto de investigación como el propuesto. En antiguos estudios se
emplearon para la captación de los movimientos unos métodos de carácter intrusivo.
Dichos métodos consisten en el registro de los movimientos del ojo por contacto
directo con los mismos, como por ejemplo el uso de lentes de contacto especial con un
espejo incorporado o un sensor de campo magnético. Estudios actuales han concluido
que el uso de esta clase de herramientas no es una opción válida, puesto que pueden
alterar el movimiento y frecuencia natural de ocurrencia de los microsacádicos[1].
En este apartado se muestran las técnicas más empleadas para el registro de
movimientos oculares en el campo de la investigación que pueden ser utilizadas para
55
la
consecución
del
objetivo
final
del
proyecto:
Electrooculografía
(EOG),
Procesamiento de imágenes digitales (PID), , y el sistemas basados en el empleo de
infrarrojos. Esta última alternativa es la que finalmente se seleccionó en el proyecto, y
por tanto, se explicará con mayor detalle, recalcando las ventajas que posee para la
investigación propuesta.
4.2.1. ELECTROOCULOGRAFÍA (EOG)
Una de las técnicas más sencillas para la detección de movimientos oculares es
mediante el registro de señales a través de la electrooculografía. Esta técnica consiste
en colocar una serie de pequeños electrodos en zonas cercanas a los músculos
oculares extrínsecos[12]. Cuando los ojos efectúan algún movimiento, se producen
cambios de voltaje que son captados por estos electrodos. En este sentido, el ojo se
comporta como un dipolo eléctrico, y su movimiento será registrado por los electrodos
como se detalla a continuación.
Los cambios de voltaje registrados se traducen en señales bioeléctricas que son
producto de la diferencia de potencial que existen entre la córnea, que es
eléctricamente positiva, y el fondo del globo ocular a la altura de la retina, que es
eléctricamente negativo (Figura 12). Este potencial es denominado potencial
corneofundal. Gracias a este potencial se puede generar un vector, con lo cual no
sólo da la posibilidad de detectar cuando se da un movimiento, sino que también se
puede registrar la dirección del movimiento[12]. Así, cuando los ojos miran al frente, los
electrodos detectan un equilibrio de potencial entre la córnea y el fondo del ojo. Sin
embargo, cuando los ojos se mueven hacia la derecha, la córnea se aproxima al
electrodo derecho, el cual capta una señal positiva, y el fondo del ojo se aproxima al
electrodo de la izquierda, que capta una señal negativa. Entonces se registra un
cambio de voltaje hacia la derecha. Cuando el ojo se mueve hacia la izquierda, se
produce el efecto contrario[12]. Los dos electrodos activos se colocan, bien
horizontalmente a ambos lados de los ojos, bien verticalmente arriba y abajo del ojo
con objeto de registrar movimientos oculares en un eje de coordenadas u otro, esto es,
movimientos verticales u horizontales.
56
Figura 12: Esquema básico de un electrooculograma. Cuando el ojo gira hacia un lado, varía el
potencial, que es captado por el aparato (imagen obtenida de REF. ¡Error! No se encuentra el origen de
la referencia.13).
Los movimientos horizontales se pueden separar para cada ojo usando un
sistema de registro monopolar, consistente en colocar un electrodo activo en el lado
correspondiente del ojo y un electrodo que hará las veces de punto de referencia
colocado en el centro de la frente entre los dos ojos. También se requiere de un
electrodo de toma de tierra[12].
Las ventajas principales que posee esta técnica de detección son su simplicidad
para realizar mediciones, comodidad y bajo coste, ya que en esencia precisa de
placas que detecten varianza de potencial con la ayuda de unos electrodos[14].
Además, si el objeto de estudios son movimientos amplios, los electrooculogramas
ofrecen buena resolución y linealidad de la señal registrada.
El principal inconveniente en la captación de estas señales es que poseen un
valor muy pequeño en relación con otro tipo de señales eléctricas, así como un
limitado y preciso rango de frecuencia extremadamente bajas. Por otro lado, Además,
dichas señales se ven afectadas por la existencia de una gran multitud de fuentes de
ruido que interfieren en el registro y posterior procesamiento de las misma [15]. La luz
incidente, así como la contracción de los músculos faciales y los parpadeos son
ejemplos de estas fuentes de ruido. Por otro lado, los potenciales con los que se
trabaja, al ser de tipo bioeléctrico, no son deterministas, con lo cual sus magnitudes
pueden cambiar en el tiempo y operan dentro de un rango variable aunque todos los
factores estén controlados, de manera que las medidas de estos biopotenciales
pueden variar de un individuo a otro de forma significativa aunque se traten de
personas con buen estado de salud y que las condiciones de adquisición sean las
mismas.
57
Los inconvenientes planteados dificultan mucho la captación de movimientos de
amplitud tan baja como lo son los microsacádicos. El ruido que aparecen en los
registros puede llegar a ser de una amplitud superior al del objeto de estudio. La
variabilidad de los potenciales también resultan problemáticos. Por todo ello, se
descartó el empleo de esta técnica como sistema de adquisición para el proyecto
propuesto.
4.2.2. PROCESAMIENTO DE IMÁGENES DIGITALES (PID)
El procesamiento de imágenes digitales engloba un conjunto de técnicas cuyo
cometido es el tratamiento de imágenes en formato digital para adaptarla a las
necesidades de diferente índole. Todas estas técnicas tienen una serie de tareas que
deben realizarse secuencialmente, que involucran a la imagen a analizar y que van
modificándola o extrayendo información necesaria para el propósito final. Cada tarea
es, pues, un algoritmo implementado en una computadora y en el que la imagen es la
principal variable de entrada.
Las técnicas para facilitar la detección de movimientos oculares tendrán una
serie de tareas principales que por lo general son comunes a todas:
- Detección de rostro: El algoritmo tiene como cometido detectar y/o resaltar la
zona donde se localiza el perfil del individuo plasmado en la imagen analizada (Figura
13). Los algoritmos pueden diferir en los elementos del rostro que usa para localizarlo:
cejas, pómulos, mentón, etc. Si la imagen de la que se parte es únicamente de la zona
adyacente al ojo, esta fase no sería necesaria.
- Detección del ojo: Al igual que en el punto anterior, existen algoritmos que
deben situar el ojo en una imagen. Éstos también deben localizar la pupila e iris, que
son elementos que pueden ser diferentes en cada persona, y cuyas propiedades
pueden variar con el paso del tiempo ante distintos factores: dilatación o contracción
de la pupila por la variación de luz, entrecerrar los párpados por cansancio o parpadeo
por sequedad, entre otros.
- Seguimiento del ojo: En cada instante, se debe interpretar hacia donde está
mirando el sujeto, y compararlo con los datos obtenidos de imágenes anteriores,
sirviendo a su vez como fuente de información con la que comparar la siguiente
imagen a procesar. Esta tarea es la más compleja porque el ojo varía con el tiempo en
muchos aspectos, como hemos señalado en el punto anterior. Los algoritmos deben
tener técnicas de reconocimiento y clasificación de patrones para que no confunda
58
aspectos como la dilatación de la pupila como un cambio de orientación del ojo en
alguno de sus ejes de posición.
Figura 13. Los algoritmos de PID para detección de los ojos deben identificar ciertos rasgos faciales
(imagen obtenida de rtcmagazine.com).
El uso de procesamiento de imágenes digitales tiene como ventajas la capacidad
de obtener valores con gran precisión dependiendo de la resolución con la que se
tomen las imágenes y de la eficacia de los algoritmos empleados.
El problema principal que tiene el uso de estas técnicas es que el coste del
instrumental será directamente proporcional a la resolución precisada, que además,
influirá en la cantidad de recursos necesarios por parte de la computadora empleada
para el procesamiento.
El proyecto que se quiere llevar a cabo requiere de la detección de movimientos
de una amplitud realmente pequeña y que se realizan a una velocidad tal que es
imperceptible para el ojo humano, por lo que emplear técnicas de esta clase requeriría
procesar gran cantidad de imágenes para poder detectar los micromovimientos del ojo,
y además éstas imágenes serían de gran tamaño, puesto que para detectar
movimientos de amplitud menor a un grado se requiere mucha precisión, y por tanto,
una resolución muy elevada. Esto no solo requiere de instrumental caro del que no se
dispone sino que además los tiempos de cómputo de los algoritmos serían excesivo.
59
4.2.3. USO DE INFRARROJOS
El uso de luz infrarroja es una de las técnicas más comúnmente usadas en
investigación para la detección de movimientos oculares. Es la técnica que se
empleará en el estudio propuesto, por razones que se detallarán más adelante. Antes
detallaremos aspectos concernientes a esta técnica.
Radiación infrarroja [16]
Es una de los muchos tipos de luz que constituyen el espectro electromagnético.
Posee una longitud de onda inmediatamente por encima que la de la luz visible, y por
ello, tienen una frecuencia menor. Esta radiación la emite todo material que se
encuentre por encima del cero absoluto, es decir, cero grados Kelvin.
El infrarrojo no es más que radiación caliente. La radiación infrarroja da
información acerca de la distribución de la temperatura de los objetos estudiados.
Además, puede penetrar humo espeso, nubes y polvo, por lo que las cámaras
infrarrojas son muy útiles en muchos ámbitos de distinta índole, desde investigación en
distintas ramas de la ciencia hasta en asistencias para estrategias de rescate.
Utilidad en la detección de movimientos oculares
Figura 14: A la izquierda, elementos para la detección de movimientos oculares mediante el uso de
infrarrojos. A la derecha, ejemplo de cámara infrarroja especial para detección del movimiento del
globo ocular. (Imágenes obtenidas en uarts-eyetracking.org y wise9.jp, respectivamente)
Si una fuente de luz fija se dirige a los ojos, la cantidad de luz reflejada de nuevo
a un sistema de detección varía con respecto a la posición del ojo[17] (Ver figura 14).
Este principio ha sido aprovechado en numerosos sistemas de rastreo ocular
comerciales. La luz infrarroja cumple, por tanto, esta propiedad, ya que tiene la misma
naturaleza que la luz visible. La diferencia estriba en que se encuentra en un rango de
frecuencia más bajo, de manera que el ojo humano no lo percibe. Ésta es la cualidad
60
que la hace tan útil, ya que si es "invisible" a la vista no actuará como una distracción
ni molestará a la hora de usarla en las pruebas de investigación. Por otro lado, los
detectores de infrarrojos no se ven influenciados en gran medida por otras fuentes de
luz, con lo cual el nivel de iluminación ambiental no afecta en las mediciones.
Ventajas e inconvenientes
La resolución espacial alcanzada (el tamaño del movimiento más pequeño que
puede ser detectado de forma fiable) con esta técnica es del orden de 0,1°, y pueden
lograrse resoluciones temporales de 1 ms empleando los aparatos de adquisición más
comunes, pudiéndose alcanzar valores aún más precisos con detectores más
avanzados[17]. Estos últimos son, por lo general, mucho más caros, y es un
inconveniente a tener en cuenta. Otro inconveniente es el parpadeo del ojo, que no
sólo cubre la superficie del ojo, impidiendo el reflejo, sino que además hace que el ojo
se retraiga ligeramente, lo que altera la cantidad de luz reflejada por un breve periodo
de tiempo tras el parpadeo. El ruido también está presente, lo que puede resultar un
problema grave a la hora de detectar microsacádicos. Afortunadamente, el ruido no
alcanza una medida tal que oculte estos movimientos.
Motivo de la elección
La captación mediante el uso de electrooculogramas quedaba descartado ya
que, si bien era la técnica de detección más económica, no poseía la capacidad de
medición de movimientos tan pequeños como los microsacádicos. El uso de técnicas
de procesamiento de imágenes poseía la precisión adecuada, pero para llegar a tales
niveles se requería de un equipo de toma de imágenes demasiado caro y el
procesamiento de gran cantidad de imágenes de una resolución tan elevada requeriría
mucho tiempo de procesamiento o, nuevamente, de un equipo con una gran
capacidad y/o velocidad de cálculo muy elevada, también de alto coste económico.
Por otra parte, el uso de sistemas de adquisición basados en infrarrojos permite
detectar movimientos de la amplitud y velocidad que poseen los microsacádicos, y el
efecto del ruido no es intratable ni oculta estos movimientos. El mayor problema
reside, nuevamente, en el aspecto económico. Afortunadamente, se posee ya un
oculógrafo infrarrojo con la potencia suficiente en el Departamento de Fisiología de la
Facultad de Biología, Departamento al que pertenece el tutor del proyecto por parte de
Biología, D. Miguel Escudero. Tener la posibilidad de usar este aparato hizo
decantarnos por este método de registro. Las bondades conocidas de este método de
61
adquisición junto con tener la posibilidad de usar este aparato nos hizo decantarnos
por éste.
El sistema de registro concreto tiene una velocidad de muestreo adecuada para
la tarea de detección de movimientos microsacádicos. Concretamente, el sistema
registra la posición del ojo a 400 Hz en su eje horizontal, mientras que para el eje
vertical lo realiza a 200 Hz, estimando valores para cuadrar con el eje horizontal.
La parte del sistema que posee los sensores de visión es un casco ajustable que
posee dos cámaras infrarrojas independientes una para cada ojo. La cámara no
detecta directamente la posición del ojo: un haz de luz infrarroja, producida por unos
diodos LEDs ajustables localizados en la parte frontal inferior del casco, incide
directamente sobre el ojo; tras esto, se produce una reflexión de dicho haz hacia unas
lentes transparentes especiales localizadas justo enfrente de los ojos; en
consecuencia, nuevamente la luz es reflejada e incide finalmente en la cámara, que
según el ángulo de incidencia de la luz infrarroja calculará la dirección de la mirada del
ojo rastreado. Estos elementos están dispuestos ortogonalmente en la placa de la
visera para asegurar un marco coherente de referencia[20] (Ver figura 15).
Figura 15: Vista del casco. Los LEDs localizados en la zona inferior del casco inciden luz sobre el ojo,
que son reflejados hacia un cristal policromado que a su vez refleja hacia la cámara (Imagen hecha
durante las pruebas de laboratorio).
El registro del ojo requiere de una fase de calibración para la localización del
centro del ojo. Como se puede observar en la figura 16, el casco posee varias zonas
de ajuste para poder ser acomodado a las características de cualquier sujeto de
62
experimentación, así como la posibilidad de enfocar las cámaras para detectar los
ojos, que por su anatomía podrían estar a mayor o menor profundidad con respecto a
la frente. Durante la fase de calibración, las imágenes registradas por las cámaras se
muestran en un monitor conectado al sistema de captación.
Figura 16: Ajustes de la cámara. En La primera imagen podemos observar los ajustes para fijar el casco
a la cabeza (el gorro es para pruebas de encefalografías). En la segunda imagen podemos observar
todos los ajustes para la detección correcta del ojo. a. Ajustes de la altura de las cámaras. b. Ajuste de
lentes vertical. c. Ajuste de lentes horizontal. d. Ajuste de intensidad de los leds. e. Enfoque de las
cámaras(Imágenes obtenidas en el laboratorio y del manual de usuario del sistema de adquisición).
Experimentación
En el campo de la investigación, el empleo de estadísticos es una de las
metodologías más extendidas para el estudio. En definitiva, se trata de analizar
aquello que se está estudiando recogiendo datos relevantes de una muestra de la
población. Si dicha muestra es escogida de manera aleatoria, dará una aproximación
de cómo se comporta en la totalidad de la población aquello que es objeto de estudio.
En el proyecto propuesto, el objeto de estudio son los movimientos microsacádicos del
ojo humano, y para ello habría que analizar datos relativos a la visión de sujetos de
prueba. Lo que se busca con un estudio estadístico es la aceptación o rechazo de una
hipótesis referente a lo que se pretende estudiar. A ser posible la hipótesis debe ser
aceptada o rechazada fruto de la realización de las pruebas de experimentación
correspondientes aportando información relevante al campo de investigación. La
formulación de una hipótesis requiere un estudio previo de las posibles alternativas a
estudiar
involucrando dichos movimientos. Una vez establecida la hipótesis, se
definirán las pruebas a las que deben ser sometidos los sujetos de experimentación,
así como las características que deben tener éstas para que sea posible recopilar la
63
información apropiada para obtener resultados que permitan aceptar o rechazar la
hipótesis.
En el ámbito en el que se desarrolla el proyecto, tanto establecer la hipótesis
como diseñar una prueba apropiada para el estudio de ésta es la mayoría de las veces
una tarea complicada y requiere tiempo hasta dar con los adecuados. La hipótesis
puede necesitar el análisis de aspectos muy variados o excesivamente complicados
de medir, por lo que debe modificarse o replantearse otra desde cero. Las pruebas de
experimentación diseñadas también pueden resultar poco útiles para captar
información relacionada con la hipótesis, algunas incluso se empiezan a llevar a cabo
y requieren modificaciones una vez se someten a prueba y análisis.
Una vez diseñada una prueba válida, los siguientes pasos es implementarla,
involucrar a varios sujetos a la misma y analizar los resultados. Para todo ello se
necesitan recursos apropiados. En este proyecto se requiere de un sistema en el que
se puedan implantar pruebas de estímulos visuales para crear la prueba, con la
capacidad de presentarla adecuadamente de manera sincronizada tal como se ha
diseñado, y recopilar los datos durante la misma para que sea posible un análisis
posterior. Un esquema de las fases esenciales de una investigación de
experimentación[21] se puede contemplar en la Figura 17. La presentación y
recopilación de datos debe realizarse en tiempo real, es decir, captar y procesar los
datos al mismo tiempo que se muestran y con un retraso máximo exigido con tal que
los datos puedan ser recogidos en el tiempo, sin pérdidas.
Figura 17: fases principales de una investigación de experimentación
64
Un sistema en tiempo real es, en definitiva, aquel que cumple unos requisitos
temporales en respuesta ante unos estímulos del entorno. Los sistemas en tiempo real
poseen las siguientes características:
determinismo, o capacidad de determinar
cuánto es el tiempo que tarda una tarea en iniciarse; responsividad, o duración de una
tarea desde que es ejecutada; control por usuario de la prioridad, recursos y derechos
de los procesos que corren en el sistema, y confiabilidad, es decir, que la calidad del
servicio que ofrece no puede degradarse sobrepasando un límite.
Otros sistemas usados no son especializados, pero tienen suficiente velocidad
de procesamiento como para cumplir con el propósito de adquisición de datos en el
tiempo en que se presentan. En el caso del proyecto propuesto, los sistemas
empleados no cumplen con algunas de las características anteriormente mencionadas,
pero tienen suficientes prestaciones, como para cumplir con el propósito de
adquisición de datos en el tiempo en que se presentan. Se trata de varios
computadores, concretamente tres, Pentium 4 con 512MB de memoria RAM y sistema
operativo Windows 2000 o XP[20]. Cada uno tiene su propia función en la realización de
las pruebas y también las herramientas software necesarias para cumplir su cometido.
Para realizar las comunicaciones necesarias entre ellos se emplea un medio de
transmisión cableado óptimo en velocidad, como fibra óptica, para que exista el menor
retraso. Además, poseen un software especializado para que la respuesta ante
estímulos y la comunicación entre sistemas sea lo bastante eficiente como para
cumplir con los requisitos temporales impuestos.
Esta clase de sistemas no son tan eficientes como otros principalmente debido al
sistema operativo empleado, con el cual se producen procesos de forma impredecible
que no pueden ser controlados y pueden interrumpir las pruebas que se están
realizando, acumulando retrasos o incluso provocando la pérdida de información. Esto
hace que el sistema incremente su determinismo y su responsividad. Sin embargo, la
ventaja que hace decantarse por este tipo de sistemas en relación a otros con
sistemas operativos en tiempo real es que no se precisa de un usuario experto del
sistema, sino que cualquier usuario estándar que aprenda cómo controlar las
herramientas software puede encargarse de manejar el sistema sin necesidad de un
intermediario.
4.3. SISTEMA DE PROCESAMIENTO
Trabajar directamente con la señal tal como ha sido recogida por el sistema de
captación del movimiento es en la mayoría de los casos difícil y en muchas ocasiones
65
innecesario, porque tienen excesiva información, mucha sin ningún interés según el
estudio que se plantea realizar. Para el proyecto planteado, se debe analizar qué
información del registro es interesante para el estudio que se propone, y una vez
concretada dicha información relevante, hay que hallar formas de procesar la señal
para extraer dicha información. El procesamiento puede tener como finalidad
simplificar los datos tal que quede, en la medida de lo posible, únicamente los que
sean de interés, o resaltar la información relevante haciéndola más identificable, sin
pérdida de información.
Así pues, el procesamiento de manera adecuada ofrecerá una nueva señal de
información relevante para el estudio planteado. Es necesario nuevamente estudiar
técnicas de procesamiento adecuadas para conseguir resultados que faciliten la tarea
de localizar los movimientos del ojo objeto de estudio del proyecto a partir de la
información registrada por el sistema.
Los movimientos microsacádicos tienen como característica principal ser
movimientos bruscos que provocan un desplazamiento del ojo de cierta amplitud en
poco tiempo. Esto se traduce en velocidad anómala con respecto a otros movimientos
del ojo, al menos en periodos de fijación de la mirada. A raíz de conocer esta
propiedad, el procesado que se plantea no es otro que el cálculo de la velocidad.
No obstante, existen varios métodos para el cálculo de la velocidad en señales
ya registradas, cada cual más complejo que el otro pero que aporta más precisión y
fiabilidad en los cálculos realizados a partir de datos con ciertos niveles de ruido.
El procesamiento partirá de los valores recogidos de forma directa por el sistema
de captación. En el caso de la velocidad, se trataría de la diferencia entre dos
posiciones en el tiempo dividido entre el intervalo de tiempo que existen entre éstos.
Cuanto mayor sea dicho intervalo menor influencia del ruido existe, pero si es excesiva
los movimientos de duración parecida al intervalo de tiempo usado pasan
desapercibidos, lo que en nuestro caso supone la pérdida de microsacádicos.
Otra forma de calcular la velocidad es calcular no sólo la diferencia entre sólo
dos puntos, sino a partir de un promedio de diferencias. Esta forma suprime el ruido en
cierta medida mejor que el primer método.
Tras el procesamiento será necesaria una etapa de detección de los
movimientos con la nueva base de información. La forma de detectarlos dependerá,
66
obviamente, de la clase de procesamiento que se haya empleado. Procesamiento y
detección, por lo tanto, siempre irán relacionados y deberán plantearse en conjunto.
La detección de los movimientos en base al procesamiento realizado se basa,
obviamente, en el análisis de la velocidad. Al igual que ocurre con el procesamiento,
hay formas más o menos complejas de detectar los movimientos.
El caso más simple consiste en la estimación de una velocidad mínima que debe
alcanzar un movimiento. La estimación de esa velocidad umbral depende de la
información aportada por los miembros de Biología o recogida de referencias al
respecto, además de las posibles perturbaciones que haya en los registros por el
ruido, el sistema de captación empleado o el sujeto de experimentación.
Otro modo más sofisticado consiste en el cálculo de un umbral empleando datos
estadísticos como la media y la desviación típica del registro[22]. El umbral calculado es
un múltiplo de la desviación típica. El resultado se puede ver perturbado por el ruido,
por lo que se calcula a partir de una estimación de la media. En definitiva, para el
cálculo de la desviación se emplea la siguiente fórmula:
2 〉
𝜎𝑥,𝑦 = 〈𝑣𝑥,𝑦
− 〈𝑣𝑥,𝑦 〉2
El operador 〈. 〉 representa la media. Por último, el umbral sería igual al producto
de la desviación por un coeficiente, variable según el ruido y otros factores. La ventaja
de usar este método reside en que es adaptable a cambios en el ruido, que puede ser
diferente en distintos registros, ofreciendo además resultados más estables en el
mismo registro si hay cambios de alguna índole debido a inclinaciones débiles de la
cabeza durante la prueba, cambios sufridos por pérdidas fortuitas, etc.
Una vez detectados, se deberá proceder a su clasificación. Los movimientos del
ojo más importantes que se pretenden localizar son los microsacádicos. Sin embargo,
los miembros de Biología consideraron la posibilidad de que para el estudio de los
movimientos oculares que nos ocupa también fuera interesante e incluso necesario
localizar otros movimientos de mayor amplitud, tales como movimientos sacádicos o
parpadeos. Por lo tanto, es necesario contar con una base de información detallada
de las características más destacadas que tienen los distintos tipos de movimientos
oculares y cuáles son las diferencias entre éstos. Con esa información, también es
necesario estudiar cómo se muestran las propiedades de cada movimiento en el
registro generado por el sistema de captación y cómo resaltar la información con el
procesamiento de la señal registrada. La clasificación de los movimientos dependerá
67
en su mayoría de la amplitud y duración de éstos, por lo que es necesario que el
procesamiento previo y la detección de los movimientos permitan mantener dicha
información para facilitar esta última tarea.
Por muy sofisticado que fuese el sistema de registro, dada las características de
los microsacádicos, de entre las cuales destaca principalmente su reducida amplitud,
se podía esperar que fuera necesario el empleo de alguna clase de filtro de ruido que
pueda ocultar en gran medida los movimientos objeto de estudio. Es por ello que hará
falta un conocimiento de técnicas de filtrado para ser capaz de elegir la más indicada
una vez analizado el ruido que aparece en los registros, y conociendo las frecuencias
y amplitudes que poseen los microsacádicos.
4.4. MODELO FÍSICO DEL MOVIMIENTO Y DE VISIÓN OCULAR
Uno de los problemas que puede plantear un estudio científico como el que se
plantea en este proyecto se encuentra a la hora de recopilar la información de forma
válida, en las condiciones preestablecidas, sin la aparición de algún tipo de factor
durante la captación que perturbe los datos. Esto, sin embargo, es bastante frecuente.
Según qué es lo que se está sometiendo a estudio y la prueba o pruebas que se
empleen para analizarlas, la dificultad para recoger muestras válidas para la
investigación varía de forma notable. Para que en el estudio no se usen pruebas
inválidas por error se pueden tomar medidas de distinta índole.
Una de estas medidas consiste simplemente en vigilar durante las pruebas de
experimentación que no aparece o se realiza ninguna acción que altere las
condiciones de la que se parte para recopilar información válida.
En el caso propuesto, la detección de los movimientos microsacádicos según lo
que se quiera analizar es una tarea peliaguda. El ojo es un órgano sensitivo muy
complejo con gran variedad de movimientos. Según la situación y el estado anímico de
la persona los movimientos del ojo pueden darse con distinta frecuencia o
amplitudes[1]. Los microsacádicos son movimientos del ojo muy pequeños que
aparecen con mayor frecuencia en periodos de fijación de la mirada. Pero según la
duración del periodo de fijación, el número de veces que se producen estos
movimientos también puede verse alterada. Es necesario, por lo tanto, procurar
conocer si los sujetos de investigación no interrumpen o prolongan el tiempo de
fijación que se les ha indicado durante la realización de las pruebas de
experimentación.
68
A raíz de esta necesidad surge la idea de crear un modelo que sea capaz de
recrear donde fijó la mirada el sujeto en cada momento de las pruebas. Para ello, es
necesario obtener información de los datos registrados. A partir de éstos y definiendo
un modelo matemático que interprete los datos, apoyado en el conocimiento del modo
en el que se mueve el ojo, podría detectarse con cierta precisión donde se fija la
mirada. No obstante, el objetivo del modelo será calcular no un punto concreto del
plano imagen, sino un área de visión. Esto es así por dos razones principales. Por un
lado, se tiene que el punto exacto donde se fija la mirada no es posible calcularlo, ya
que está influenciado por el ruido de los registros, y además, por la precisión que
posee el sistema de captación, con lo cual calcular únicamente un punto acarrearía
mucho error. Por otro lado, no se consideraría del todo útil contemplar únicamente un
punto de la vista, ya que cuando miramos fijamente algo no atendemos a un punto
concreto, sino a un área de interés, más o menos pequeña según la estructura que se
observe y el propósito con el que se mira. El tamaño del área de visión del sujeto a
calcular será establecido por el objetivo de la investigación.
Por otra parte, cabe destacar que el área de visión no es regular, debido
principalmente a que la superficie del ojo no es totalmente esférica. Por ello, es
necesario concretar las medidas del área que se fije analizar para precisar los
cálculos.
Ampliando los factores que tiene en cuenta el modelo se obtendrá menos error
en los cálculos, pero contemplar dichos factores tiene cierta dificultad. Uno de los
factores es el cálculo de la rotación del ojo producido por la contracción o dilatación de
ciertos músculos de los mencionados en anteriores apartados. Contemplar esta
variable en el modelo es más complejo que otras tareas.
Otro factor aún más complejo es el movimiento suave de la cabeza que se
pueda producir por cansancio muscular al mantener una misma postura. De hecho, si
consideramos la forma de adquisición escogida para la experimentación que llevamos
a cabo, calcular la inclinación de la cabeza a partir de los datos que obtenemos es una
tarea en principio inviable debido a que los sensores que captan el movimiento del ojo
están en un casco acoplado a la cabeza del sujeto y una inclinación de la cabeza
involuntaria mientras se visualiza un punto se interpretaría como un movimiento del ojo
en sentido contrario con tal de seguir visualizando el punto.
La definición del modelo puede verse facilitada gracias a la consideración previa
de algunos factores por parte del sistema de adquisición. En este sentido, algunos
69
sistemas son capaces de calcular el ángulo de rotación y rectificarlo. El sistema de
detección infrarroja usado contempla este factor, por lo que no es necesario hacerlo en
el modelo.
70
71
5. DISEÑO
5.1. DISEÑO DEL SISTEMA DE DETECCIÓN Y CLASIFICACIÓN
El diseño de la herramienta de procesamiento y detección fue una tarea
importante del proyecto desde comienzos del mismo. En adelante se hablará de la
forma a proceder tratando de seguir la línea temporal según lo ocurrido durante la
realización del proyecto.
5.1.1. CONTEXTO Y DIFICULTADES
Con el proyecto recién empezado, el tratamiento de señales real que se tendría
que llevar a cabo era inviable. La razón era clara: no se disponía aún del diseño de la
experimentación que se pretendía realizar para el estudio de los movimientos
microsacádicos, por lo que no se podía proceder a la implementación de las pruebas
pertinentes a las que se someterían los sujetos de pruebas y generar, con éstos, los
registros reales que se tendrían que procesar.
Sin embargo, ante las limitaciones de tiempo a las que estaba sometido el
proyecto, no era factible esperar a un primer diseño de la experimentación que
pretendiera hacerse por parte de los miembros de Biología. Por lo que se buscó una
solución alternativa consistente en trabajar en el procesamiento y detección usando
registros de pruebas anteriores realizadas en el Departamento de Fisiología.
La solución era aceptable, permitía avanzar en la tarea de la realización del
sistema de procesamiento mientras se ideaba un diseño de experimentación
apropiado.
Lamentablemente, la solución no era ideal por distintas razones. Una de ellas,
contemplada desde inicios de proyecto, era que las pruebas de experimentación que
se planteaban para este proyecto diferían mucho de las que se realizaron
anteriormente y de la que se poseían los registros, lo cual se esperaba (y
posteriormente se confirmó) que los registros resultantes de usar nuestra prueba
tuvieran una forma distinta y aparecieran elementos diferentes. Otra de las razones es
que no se tenía una experiencia real de la obtención de la información por el sistema
de registro.
Con todo, no se podía proceder de otra forma sin retrasar todas las tareas
asignadas, por lo que se procedió a diseñar la herramienta de forma general.
72
5.1.2. DISEÑO INICIAL
En una primera etapa de diseño, se definieron las fases básicas de las que se
compuso el sistema (Ver figura 18). Estás consistirían en:
- Recalibrado: El sistema de captación calcula de forma que se adecua a la
realidad, pero no a la escala correcta. Es necesario ajustar el registro para
trabajar con datos en la proporción correcta.
- Procesamiento de la señal: El propósito es transformar la información dada
por la señal de manera que el resultado permita alcanzar el objetivo del
análisis de la información de forma más sencilla.
- Detección de movimiento: A partir de la señal procesada se procede al
análisis para la localización de movimientos relevantes para la investigación.
- Clasificación de movimientos: Con lo detectado en la fase anterior, se
analizan sus características para determinar de qué clase de movimiento se
trata.
Figura 18: Diseño inicial de la herramienta
Recalibrado
73
En esencia, el registro ocular consta de cuatro señales, dos para cada ojo, una
determinando la posición del ojo en el eje vertical y otra en el eje horizontal en cada
momento de la duración de la prueba. Este desplazamiento se calcula en grados.
Antes del procesado de las señales es necesario escalar cada señal para
trabajar con datos reales, establecidos al inicio del registro de la prueba. Para ello,
estos datos preestablecidos se deben relacionar con los datos de calibración que se
recogen durante la prueba al inicio de cada una. En dicha fase de calibración, se le
indica al usuario que
debe mirar a posiciones concretas de la pantalla, cuyas
distancias al centro ya están calculadas. También se le pide que mire justo al centro.
Sabiendo la posición que debe tener el ojo en un momento concreto de la prueba y el
que muestra en dicho momento el registro, la calibración se realiza del siguiente modo:
𝑥𝑖𝑟 =
xi × v r
v
Donde 𝑣 es el valor en la señal registrada en un momento determinado de la
prueba y 𝑣 𝑟 es el valor real que debería tener. Con esta conversión del registro se
obtienen los valores escalados adecuadamente.
Los valores reales están calculados en centímetros o píxeles de la pantalla. Para
calcular los grados se debe hacer a partir de una razón trigonométrica, conociendo la
distancia del ojo del sujeto de experimentación a la pantalla durante la prueba y la
distancia del punto que mira respecto del centro de la pantalla. La fórmula es:
𝑣 𝑟 = arctan⁡(
𝑑𝑐
)
𝑑𝑝
Donde dc es la distancia de la mirada del ojo al centro de la pantalla y dp la
distancia del sujeto a la pantalla.
Los valores calculados para escalar el registro son la diferencia entre visualizar
dos extremos de la pantalla en el eje horizontal y eje vertical.
Es necesario adecuar los valores al sistema de referencia, el centro de la
pantalla. Para ello se toma el valor que toma el registro cuando se pidió al sujeto que
mirase al centro. Dicho valor se le resta al registro considerando que el resultado está
calibrado. A continuación se puede ver un esquema de la información necesaria para
la fase.
74
Figura 19: Fase de recalibrado
Procesamiento de la señal
A raíz de comenzar el diseño de esta fase, se plantea una primera alternativa,
impuesta por la composición del registro. Consistió en procesar las componentes
vertical y horizontal por separado para su posterior combinación del resultado
obtenido, o viceversa. Se decidió tomar la primera opción por la razón de que facilitaba
inicialmente la tarea de procesamiento y permitía ir adquiriendo experiencia de manera
más fluida a inicios del proyecto.
Como se mencionó anteriormente, los movimientos que se quieren analizar se
caracterizan principalmente por ser movimientos bruscos muy rápidos. Es por ello que
la principal cualidad que debía destacarse es la velocidad alcanzada por los
movimientos registrados (ver figura 20). Las señales registran la posición de los ojos
en un momento concreto de la prueba, por lo que la forma básica para calcular la
velocidad en un momento preciso de la prueba se da por la siguiente fórmula:
𝑣𝑖 = ⁡
𝑥𝑖 − 𝑥𝑖−1
∆𝑡
Donde ∆𝑡 es el periodo de tiempo que transcurre entre el momento 𝑖 e 𝑖 − 1.
Inicialmente, con objeto de conseguir la máxima precisión, se calculaba la
velocidad a partir de la diferencia entre la posición de un momento dado y su
inmediatamente anterior captado por el sistema de registro. No obstante, una vez
75
analizado el registro más detalladamente, se detectó ruido entre capturas muy
cercanas, lo que enturbiaba la velocidad real que se pueda alcanzar en un
movimiento. Por ello se estableció calcular la velocidad entre capturas más distantes
de la señal.
𝑣𝑖 = ⁡
𝑥𝑖 − 𝑥𝑖−𝑘
∆𝑡
El resultado del procesamiento pasaría a estar en grados por unidad de tiempo.
El sistema de registro realiza 400 capturas de la posición del ojo cada segundo, por lo
que se tiene la información necesaria para calcular la velocidad.
Figura 20: Función de procesado
Detección del movimiento
Tras el procesamiento y adecuación de la señal, podían localizarse los
movimientos relevantes para el estudio. Principalmente se trataba de localizar los
momentos de la señal en los que el valor de la velocidad superaba un umbral. Para
estos movimientos que superasen el umbral, se tomaba desde que el valor dejase de
valer cero hasta que volviera a dicho valor, como muestra la figura 21.
76
Figura 21: Esquema aclarativo de la detección de un movimiento en base a su velocidad
No obstante, el ruido que se haya mantenido en la señal procesada puede
hacer, si tiene un valor elevado, que se le confunda con un movimiento. Para paliar en
la medida de lo posible estos casos, se consideró tomar una serie de medidas. En
primer lugar, sabiendo que los movimientos importantes más cortos son los
movimientos microsacádicos, y éstos no duran menos de doce milisegundos, se
impone un filtro que elimine aquellos movimientos detectados que, aunque superen la
velocidad umbral estimada, sea de una duración menor a la dicha con anterioridad.
Como segunda medida, se eliminan aquellos movimientos que no alcancen una
amplitud de 0.25 grados, desplazamiento mínimo que se establece de un
microsacádico.
El resultado de esta fase consiste principalmente en un listado del intervalo de
un movimiento detectado, esto es, se recoge el inicio y fin de los movimientos que
pasan por el filtro mencionado anteriormente. Con esta información recopilada, más
los registros iniciales sin procesar (que contienen el desplazamiento de los ojos) y los
registros procesados (que determinan la velocidad puntual) se pueden calcular datos
de relevancia para el análisis de éstos movimientos, algunos importantes para el
estudio de experimentación biológica y otros, además, relevantes para la clasificación
de los movimientos. En esta primera versión se contempló el cálculo de la amplitud
total del movimiento, las individuales por cada eje, la velocidad máxima alcanzada y la
duración total del movimiento.
77
Fase de clasificación
Esta fase actúa directamente sobre la lista de movimientos detectados. En
función de la amplitud que posean estos movimientos se clasificarán como
microsacádico, sacádico o parpadeo.
Los parpadeos, al contrario que ocurren con los movimientos sacádicos y
microsacádicos, no son aptos para la captación por el sistema de registro, que se basa
en la detección continua del ojo por la reflexión de los rayos infrarrojos. Los parpadeos
suponen el cierre total o parcial del ojo, lo que implica la pérdida de la situación del
mismo durante el periodo de tiempo que el ojo está oculto tras el párpado. En los
registros, eso se traduce en la toma de valores muy elevados, demasiado altos para
que se pueda contemplar como un movimiento natural del ojo. Sin embargo, antes de
la pérdida total del ojo, éste en general puede hacer unos movimientos involuntarios
en alguna dirección, similares a los sacádicos, como los que se muestran en la figura
22. Éstos movimientos deben de clasificarse como parte del parpadeo. En la fase de
calibración debe controlarse los movimientos relativamente cerca de un parpadeo y
considerarlos como parte del mismo.
Figura 22: Muestra de un parpadeo contemplado en el registro
78
5.1.3. SEGUNDA VERSIÓN
Tras una primera implementación en base al diseño inicial, se pasó a una etapa
de validación en la que los miembros de Biología detectaron errores al identificar
microsacádicos. En particular, se localizaban movimientos que no eran microsacádicos
pero se clasificaban como tales, a la vez que no se detectaban algunos que sí lo eran.
Las medidas principales tomadas para mejorar la efectividad de la herramienta
fueron el cambio en la forma de procesar la señal, realizar un pre-procesamiento en la
que se trataba el ruido mediante el uso de filtros adecuados. También se modificó el
modo en que se detectan los movimientos y se introdujo una nueva fase de
representación de los movimientos.
Modificaciones en segunda versión
Se añadió las fases de filtrado, de representación y se modificó la función de
detección, tal como se muestra en la figura 23.
Figura 23: Segundo diseño de la herramienta
79
Filtrado
Se probaron distintas técnicas de filtrado. Con filtrados básicos como el de
ventana se obtenía una eliminación del ruido más efectiva. Sin embargo, los
resultados no fueron adecuados, puesto que se reducía la amplitud en toda la señal y
con ello la velocidad alcanzada por los movimientos relevantes para el estudio en la
señal. Por ello, el uso de filtros básicos fue rechazado.
La mejor solución encontrada para no eliminar las propiedades esenciales de los
movimientos fue realizar un filtro personalizado. El ruido que se consideró posible
tratar fue el que tenía la duración mínima contemplada por el sistema de registro, es
decir, en el que se podía encontrar entre captura y captura la posición del ojo.
También estaba limitado tratarse únicamente el ruido que no superaba cierto
porcentaje de la amplitud de un movimiento microsacádico. El principal lugar donde se
pretendía paliar el ruido era durante la ejecución de un microsacádico, caracterizado
por una fuerte pendiente.
Teniendo en cuenta estas circunstancias, se elaboró un filtro propio que
permitiera tratar específicamente esta clase de ruido. Esto es, el filtro localiza ruido y
actúa sobre él, en lugar de realizar un filtro indiscriminado sobre toda la señal.
El resultado fue una reducción en cierto grado de los elementos en la señal que
enturbiaban las características de los movimientos relevantes para el estudio, sin
modificar algunas partes de la señal captadas adecuadamente durante el registro.
Modificaciones en el procesamiento
El motivo del cambio en la forma de procesar los registros es nuevamente el
ruido. Para tratar que en el procesado haya menos influencia del ruido se puede
proceder al cálculo de la velocidad teniendo en cuenta varios datos adyacentes, tanto
anteriores como a posteriores al momento que se vaya a calcular. Una fórmula general
sería:
𝑣𝑖 = ⁡
∑𝑁
𝑗=1 𝑥𝑖+𝑗 − 𝑥𝑖−𝑗
𝑁 × ∆𝑡
Con esto se consigue valores de la velocidad más suavizados, con menos picos
bruscos frutos del ruido.
80
Modificaciones en la detección
Un error cometido en la primera versión fue considerar movimiento relevante
aquel que llegase en cualquier momento al umbral estimado y considerar como
intervalo de tiempo de dicho movimiento desde el momento en que la velocidad dejó
de valer cero hasta que vuelve a tomar dicho valor. Con estas medidas se recogían
movimientos que no son bruscos en su desplazamiento, sino que son suaves pero en
algún momento algún ruido o algún otro factor hacían alcanzar el umbral de velocidad.
La duración de tiempo mínima se alcanzaba fácilmente e incluso pasaba por la
condición de la amplitud mínima del movimiento, por lo que el movimiento acababa
considerándose relevante.
Los movimientos importantes para el estudio de experimentación planteada se
trataban de movimientos bruscos y repentinos, que alcanzan el umbral de velocidad
durante casi toda su ejecución. Por ello se consideró que los movimientos relevantes
tenían como periodo de duración aquel en que la velocidad superaba el umbral
establecido, como se muestra en la figura 24.
Figura 24: cambios en la detección. En la nueva versión el intervalo del movimiento es aquel que
sobrepase el umbral de velocidad. Tras esto, se considerará movimiento si cumple las condiciones de
duración y amplitud.
En esta fase se añadieron nuevos datos a calcular y almacenar en la lista. Los
datos incluidos fueron la posición del ojo en cada eje al inicio y al final del movimiento,
y la orientación angular del movimiento, es decir, hacia que cuadrante se dirigió el
movimiento y con qué ángulo.
Representación de los movimientos
81
Acorde a los requisitos, se debía ofrecer la posibilidad de ver los resultados de la
detección de forma visual. Se ofreció la posibilidad de visualizar el punto de inicio y de
fin de cada uno de los movimientos detectados, como se muestra en la figura 25.
Figura 25: Modo de representar los movimientos en cada señal del registro
5.1.4. TERCERA VERSIÓN
Tras las modificaciones anteriores, se sometió nuevamente al criterio de los
miembros del proyecto de biología. Dificultades en la detección de microsacádicos en
partes del registro hizo replantearse la detección, realizando cambios en el diseño de
éste.
Cambios en la detección[22]
Cambió el modo de determinar la velocidad de referencia. No se hace mención a
un umbral fijo de velocidad, sino relativa a la velocidad media del fragmento del que se
pretende detectar los movimientos. Además, en lugar de establecer un valor concreto
como umbral, se empleó un intervalo, determinado a partir de una velocidad relativa y
cálculos estadísticos de la velocidad en el fragmento del registro analizado.
Mejoras en representación
Más tarde se realizaron modificaciones en la representación de tal modo que
quedaban señaladas las zonas en el registro en las que se hubiese detectado un
movimiento, con distinto color según de qué clase de movimiento se tratara, como se
muestra en la figura a continuación.
82
Figura 26: Mejoras en representación
5.1.5. CUARTA VERSIÓN
Para facilitar la tarea de recopilación de los datos sobre los movimientos se
realizaron dos funciones que mejoraban la función del sistema
Cálculo de los movimientos por eventos
Para que fuera más sencilla y dinámica la tarea de analizar los movimientos
oculares por los eventos de la prueba de experimentación, se clasifican los
movimientos detectados en función de dichos eventos.
Eliminación de movimientos por tipo
Dado el registro, su duración y la cantidad de movimientos que se puede
detectar en ellos, es probable que tanta información pueda entorpecer la recogida de
información relevante en algún momento del estudio, por ejemplo en el que se quiera
analizar únicamente los movimientos microsacádicos. Es por ello que se decidió
realizarse una función que elimine ciertas clases de movimientos, a elección por el
usuario de la herramienta, de la lista creada fruto de detectar los movimientos en un
registro.
5.1.6. EVOLUCIÓN DE LA HERRAMIENTA
Con la primera versión no se conseguían resultados válidos respecto a la
localización de microsacádicos. Existían numerosos tramos en el registro que se
detectaban como microsacádicos sin serlo, y los que realmente lo eran se alargaban
en duración. Los movimientos sacádicos y los parpadeos sí eran localizados en su
mayoría. También se carecía de la funcionalidad de representación.
83
Con la segunda versión hubo una mejora apreciable. Ya se distinguían los
movimientos microsacádicos de manera aceptable, con pocas equivocaciones. No
obstante, la estimación de los parámetros para la detección correcta eran difíciles de
estimar y debía de hacerse varias veces por registro, lo que repercutía negativamente
en la experiencia de usuario. En esta versión se añadió la función de representación
de los movimientos, aunque era simple y poco agradable al uso, y no clasificaba.
La tercera versión es donde se alcanzó la mayor efectividad en la detección. Los
parámetros eran más sencillos de estimar y sin necesidad de realizarlo varias veces
por registro. También se redujo un tanto más el numero de movimientos erróneos.
Además, se mejoró la función de representación, que ahora remarcaba todo el
movimiento y ya clasificaba los movimientos por colores.
La cuarta versión dotó de nueva funcionalidad a la herramienta, favoreciendo la
recopilación y realización del análisis de resultados, para así realizar el estudio
estadístico de forma más eficiente por mi compañera.
En al siguiente figura se esquematiza la evolución de la herramienta.
Figura 27: Evolución y logros con cada versión de la herramienta de procesado
5.2. DISEÑO DE LA HERRAMIENTA DE EXPERIMENTACIÓN
5.2.1. CONTEXTO Y DIFICULTADES
El diseño de la prueba de experimentación es dictado, principalmente, por el
protocolo de experimentación, cuya elaboración era tarea de los miembros de la
Facultad de Biología, puesto que ésta debía de ser válida para estudiar alguna
hipótesis relacionada con propiedades del movimiento ocular, microsacádico de
interés para el campo científico. Aunque la tarea de estudiar una clase de movimientos
oculares puede parecer muy concreta, no es así; se puede investigar la frecuencia, la
amplitud, las diferencias posibles entre poblaciones, sexo o ante situaciones con uno o
84
varios factores cambiantes. Además, esta clase de movimientos del globo ocular aún
no han sido investigados con mucha profundidad ni en mucha medida, con lo cual hay
poca información que aporte ideas sobre el camino seguir a la hora de investigar
dichos movimientos y que den resultados con valor científico. Así pues, la elección de
qué propiedades o características de los movimientos microsacádicos se debían
estudiar y cómo hacerlo de manera que al final del estudio se tengan resultados
fructuosos para el campo de investigación fue en un principio del proyecto una tarea
pendiente que debía establecer la alumna de Biología. El diseño de la prueba
dependía de esta elección (Ver figura 28).
A principios de proyecto, las proposiciones de estudio y pruebas respectivas
eran aportadas por la alumna de Biología y propuestas a su tutor, para el análisis de
su valor científico y dificultades a la hora de interpretar resultados, entre otros factores.
Los miembros de Informática participaban aportando su valoración sobre la viabilidad
de implementación de éstas, analizando aspectos como la dificultad de diseño o los
recursos hardware que se requieren.
Con el tiempo, tras la elaboración de un protocolo de experimentación más
completo, ya era posible comenzar a diseñar las pruebas tal que fuera posible su
implementación en el sistema de experimentación. En el diseño de las últimas
versiones (segundo y tercer diseño) se colaboró ya tomando decisiones por los
miembros de Informática estimando, ya a partir de la creación de las imágenes
necesarias para las pruebas así como de la implementación de las mismas, las
modificaciones que fueran necesarias para cumplir con el protocolo y añadiendo
detalles para aumentar la eficiencia en tareas posteriores a la adquisición de
resultados, como la interpretación sencilla de las muestras mediante codificaciones,
entre otras cosas.
85
Figura 28: Proceso de creación de la prueba de experimentación. En verde, las tareas de las que se
encargan principalmente los miembros de biología; en azul, informática, y amarillo en común.
Aunque no estaba claro en un principio cual sería el diseño concreto, si se sabía
que sería de carácter visual. En particular, se trataba de la impresión por pantalla de
varios elementos visuales de forma secuencial y sincronizada, durante los cuales el
sujeto de pruebas tendría que realizar alguna tarea.
5.2.2. PRIMEROS DISEÑOS
Se plantearon al inicio las siguientes pruebas:
-
Impresión de fotografías clasificadas por el interés según el sexo del sujeto:
de interés masculino, de interés femenino, interés para ambos, o neutral. Se
pretendía
analizar
principalmente
diferentes
propiedades
de
los
microsacádicos ante dichos estímulos.
-
Impresión de imágenes sencillas con diferentes colores. Se pretendía
analizar en función de las propiedades de los microsacádicos el estado de
ánimo del sujeto ante dichos estímulos.
Estos diseños fueron finalmente rechazados por la posible influencia de factores
no controlados por desconocimiento de los mismos que harían difícil la tarea de
interpretar los datos en el estudio.
86
5.2.3. CAMBIO RADICAL EN EL TIPO DE PRUEBAS
Las pruebas diseñadas, a partir del rechazo de las opciones anteriores, dejaron
de centrarse en el estudio del sujeto en su faceta psicológica para en su lugar
analizarse propiedades fisiológicas de los movimientos oculares.
El diseño se centró en la aparición de diferentes elementos visuales sencillos
dispuestos en distintas zonas y durante un tiempo. Se pretende analizar cómo actúa el
ojo cuando debe mantener la visión de dichos elementos durante el tiempo
proporcionado.
A partir de entonces se trató de definir adecuadamente el diseño de la prueba
para que resultase lo más eficaz posible a la hora de recopilar datos correctos para el
estudio, aislando factores que puedan entorpecer el análisis de los mismos.
5.2.4. PRIMER DISEÑO
Consistió en la aparición de circunferencias regulares dispuestas en un fondo
liso. Las circunferencias tendrían distintos radios y estarían posicionados en zonas
distintas, con el fin de comprobar propiedades de los movimientos microsacádicos en
distintas condiciones. El sujeto sometido a la prueba tendría que mantener la mirada
fija en el centro del área de visión durante toda la prueba, tratando de mantener la
visión de los círculos que aparecían. Para que el sujeto supiera donde tenía el centro
de la zona, se le señalaba en todo momento con un punto.
Se planteó la posibilidad de añadir elementos como color distinto del fondo del
área de visión o de las circunferencias, pero ante la posibilidad de que la inclusión de
dicho factor influyera de más de una forma en el modo en que se generan los
movimientos del ojo y que pasara desapercibido en el estudio, se rechazó la idea.
5.2.5. MODIFICACIONES Y SEGUNDO DISEÑO
La prueba anterior tenía una serie de problemas. Someter al sujeto de prueba a
una exposición por pantalla de elementos idénticos en forma aunque de distinto
tamaño, pidiendo al sujeto únicamente que trate de visualizar los círculos en todo
momento, tenía la pega de que a la larga el sujeto no necesitaría esforzarse en la
visualización del mismo. Resulta que el cerebro retiene información sobre la forma de
lo que vaya visualizando y en consecuencia el ojo no necesita realizar tantos
movimientos como al inicio como para mantener la visión de lo que contempla.
87
Por lo tanto, se requería modificar la prueba para que no influyese dicha
retención mental. Se propuso la aparición de elementos distintos en forma, además de
en tamaño, considerándose que tenían un parecido suficiente como para que el
cerebro no pudiera distinguirlos sin que el ojo los contemplase correctamente.
Además, al sujeto de la prueba se le pedía que reconociese la figura que contemplaba,
para asegurar mantener su atención en la prueba en todo momento. Las respuestas
debía realizarlas de modo que no perdiese la vista del centro. Se solucionó mediante
el uso de un mando, asignando cada figura a uno de sus botones.
Así pues, se determinaron entre todos los miembros las distintas propiedades en
los elementos que aparecían por pantalla de interés para su posterior estudio
estadístico en función de los resultados:
-
Los elementos fueron 3: círculos, cuadrados y triángulos, esta vez rellenos.
-
Existían tres posibles distancias respecto al centro del área de visión (donde
el sujeto mantenía fija la mirada): 5, 10, 15, 20 y 25 grados.
-
Habían 3 tamaños, de 7,14 y 21 píxeles.
-
Todo ello para los 4 cuadrantes: derecha e izquierda, arriba y abajo.
Las propiedades quedan reflejados en la siguiente figura
Figura 29: Combinaciones de propiedades de las imágenes de la prueba
88
Dado que no se puede permitir mostrar las imágenes en un orden, puesto que el
sujeto podría memorizar la secuencia durante la prueba, se mostrarán de forma
aleatoria. También, debido a la elevada duración que la prueba puede adquirir al
mostrar todas las combinaciones posibles se eligió aleatoriamente solamente una de
las tres figuras para cada combinación de cuadrante, distancia y tamaño. Además,
algunas combinaciones que no ofrecían información relevante a la prueba, fueron
eliminadas, tales como las figuras de 21 píxeles de tamaño a una distancia de 5
grados del centro, que es reconocido al instante por el ojo al estar tan cerca de la zona
de mayor agudeza visual. Al final el número de imágenes a mostrar, sin contar las
auxiliares de calibración, entre otras, fueron 160 aproximadamente.
5.2.6. SEGUNDA MODIFICACIÓN : TERCER DISEÑO
Surgen nuevos problemas en la prueba que impiden el registro de información
adecuada. Los elementos mostrados en la prueba resultan sí ser lo bastante distintos
como para que se reconozcan sin necesidad de esforzarse en visualizarlos
correctamente, sobre todo los triángulos, por lo que el sujeto cumplía con su objetivo
de reconocer la figura inmediatamente y no se detectaban los movimientos del ojo que
se esperaban. Además, se detecta un problema mayor; el ojo ve detectando los
cambios de luminosidad, por lo que al mostrarse inmediatamente una figura en la zona
de visión el cambio hacía que el ojo se activase y reconociera inmediatamente la
figura, con lo cual no daba lugar a la ocurrencia de microsacádicos.
Ante estos problemas, se cambia nuevamente las formas que se visualizarían en
la prueba. Las tres figuras fueron sustituidas por cuadrados sin rellenar, a los cuales
les faltaba un lado. Dado lo sutil del cambio para los tamaños que se fijaron se
consideró que sería suficiente como para eliminar los dos problemas encontrados.
El único cambio en las propiedades de los elementos mostrados por pantalla fue
la forma
de éstos, que pasaban de ser las tres figuras geométricas anteriores a
cuadrados con su lado derecho, izquierdo, superior o inferior borrado.
5.2.7. TERCERA MODIFICACIÓN Y DISEÑO FINAL
La última modificación seguía presentando problemas en la prueba. Dada la
similitud de las figuras mostradas en la prueba, se corrigió el problema del
reconocimiento inmediato de la figura en ese aspecto. No obstante, aún se
visualizaban las figuras nada más aparecer por el cambio en luminosidad.
89
La solución para este problema fue mostrar antes del cuadrado sin bordes que
se debía reconocer, un cuadrado con todos sus lados en la misma posición y con el
mismo tamaño. De éste modo el cambio entre figura y figura era lo suficientemente
pequeño como para que el ojo no lo detectase a primeras. Para mayor seguridad,
también se mostraba entre el cuadrado completo y el que debía reconocerse, un
cuadrado sin un lado diferente al que hay que detectar.
Este fue el diseño final que se estableció de la prueba. Hubo que establecer un
detalle que no se consideró hasta acabar con los problemas anteriores. Consistió en el
momento y modo en que se pretendía dar al sujeto una señal para que diera su
respuesta al reconocimiento de la figura. Dado que el sujeto debía tener la vista fija en
el centro de la pantalla, se mostraría alguna señal en dicha situación que le indicase
que podía dar su respuesta. Esta señal aparecería justo tras la imagen en la que
aparece el cuadrado que tiene que reconocer. Se aceptó como señal cambiar el color
y el grosor del punto que señala siempre el centro.
En el diseño también se debía asignar los tiempos de aparición de cada imagen.
Se establecieron 1 segundo para cada imagen de calibrado, 3 segundos para cada
cuadrado, completo o no, y 1.5 segundos para la imagen que señala el tiempo para
dar la respuesta por el usuario. El ciclo de imágenes aparece a continuación.
Figura 30: Ciclo de imágenes de la prueba de experimentación
90
Antes de comenzar la prueba, es necesario introducir una fase de calibración, en
el que se recoja información para luego recalibrar y escalar la posición del ojo lo más
fiablemente posible.
Se estableció una calibración de 5x5 puntos, a una distancia de 4.5cm entre
cada punto tanto en el eje horizontal como vertical. El número de imágenes necesarias
ascendió a 280.
5.2.8. CODIFICACIÓN DE EVENTOS
Tras el diseño de la segunda versión, se establece una codificación para las
imágenes y las respuestas que da el sujeto. Se estableció realizando un análisis de las
propiedades y la variedad de valores de éstas, de forma que las primeras deben
contemplar información sobre la forma, tamaño, distancia al centro y cuadrante de la
figura y las respuestas contemplar qué figura seleccionó el sujeto. No se profundizó en
esta tarea hasta que se fijó la prueba de experimentación definitiva.
Para diseñar la codificación se debía tener en cuenta que el sistema de
presentación de las pruebas trabaja con códigos numéricos de 8 bits, de modo que
teníamos el rango de valores de 0 hasta 255 para codificar nuestras imágenes y
respuestas del sujeto.
Para la prueba de experimentación final, se estudió y diseñó una codificación de
forma que fuese lo más sencilla posible para la posterior interpretación en el análisis
de resultados de las pruebas. Fue elaborada por el estudiante de informática y
validada por los miembros de biología. Se resume como sigue:
I.
Las imágenes con el cuadrado completo contienen la codificación sobre el
tamaño, distancia y cuadrante. Se solventó asignando una cifra a cada
propiedad:
a. La cifra más significativa denota el tamaño: 0 para 7 píxeles, 1 para 14
y 2 para 21.
b. La siguiente cifra se refiere a la distancia respecto al centro: 0 para 5
grados, 1 para 10, 2 para 15, 3 para 20 y 4 para 25.
c. La última cifra codifica el cuadrante: 0 a 3 del primer a cuarto cuadrante.
II.
Las dos imágenes siguientes a la anterior, cuadrados sin un lado, tienen su
código tal que sólo informasen del lado que le falta: 1, lado derecho; 2, lado
superior, 3, lado inferior, y 4, lado izquierdo.
91
III.
Las respuestas se codifican de la misma forma que los cuadrados sin un
lado.
IV.
Para el punto rojo, señal para dar la respuesta el usuario, se usó un código
diferente al resto, 255.
V.
Para calibración, se empleó los códigos sobrantes de forma que fuera lo
más intuitivo posible:
a. La cifra más significativa codifica la fila a la que pertenece el punto,
desde el 1 hasta el 5
b. La cifra menos significativa se refiere a la columna, codificadas con
números del 5 al 9.
La codificación queda resumida gráficamente en la siguiente figura:
Figura 31: Codificación de los eventos en las pruebas
5.3. DISEÑO DEL MODELO DE VISIÓN Y MOVIMIENTO OCULAR
5.3.1. CONTEXTO Y DIFICULTADES
Al igual que ocurre con el procesamiento de las imágenes, la representación del
movimiento ocular también requiere registros de pruebas con los que operar. Según
los datos que se posean y la complejidad del modelo, mejor se emulará el movimiento
92
ocular y, por tanto, el área que el sujeto visualiza en el plano imagen. En este sentido,
es necesario alcanzar unos límites de calidad establecidos en los requisitos de tal
forma que se puedan distinguir los diferentes tipos de movimientos producidos
permitiendo detectar errores en la prueba.
Los datos disponibles, que servirán como entrada al modelo, son los registrados
por el sistema de captación durante la realización de las pruebas. Este sistema tal
como está diseñado calcula el ángulo de desplazamiento del ojo referente al plano, lo
que simplifica el modelo. Por otra parte, el sistema también considera al generar los
resultados del registro la rotación de los ojos.
Uno de los requisitos definidos en el proyecto en relación al modelo establece
que dicho modelo no debe presentar únicamente el centro de la mirada, sino que
deberá calcular el área adyacente a dicha mirada basado en el campo visual estimado.
Esta área estará definida en función de la prueba a realizar y los datos registrados en
la misma. Dado que la prueba consistió finalmente en fijar la mirada en un punto en el
centro de la pantalla, una zona muy pequeña y precisa, se consideró representar el
área de mayor agudeza visual, que corresponde con la foveola.
5.3.2. CÁLCULO DE DATOS [24]
Antes de definir el modelo es necesario realizar una interpretación de los datos
obtenidos en el registro. En las pruebas de experimentación, se toma como punto de
referencia el centro de la pantalla, por lo que los datos registrados en dicho punto se
representan como un valor de desplazamiento de cero grados tanto en el eje vertical
como en el horizontal. Un valor distinto de cero en un eje supone un desplazamiento
del ojo en dicho eje con respecto al centro de la pantalla.
Por lo mencionado anteriormente, la pantalla se presenta como un plano
perpendicular a la distancia del centro de la pupila al centro de la pantalla, es decir,
forman un ángulo recto. Esto permite, conociendo la distancia, saber la posición de la
mirada en el plano para cada grado de giro del ojo. La fórmula para el cálculo de cada
eje es
𝑑𝑒𝑠𝑝𝑙𝑎𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜 = tan ∝ ∗ distancia
Donde ∝ es el ángulo de giro que muestra el registro.
Para cada posición del ojo se ha de calcular un área de visión. Como se ha
mencionado anteriormente, se consideró que dicha área fuese la correspondiente a la
93
foveola, región con la mayor agudeza visual del ojo. Esta zona posee un diámetro de
1º 40', es decir, 1.7 grados aproximadamente. Dicha región no contemplará un área de
visión completamente circular, no obstante, para el propósito fijado en el proyecto, no
se requiere a priori mayor precisión, permitiendo inicialmente contemplar esta
aproximación. En contra, sí era necesario calcular el cambio producido en el área de
visión respecto al punto en el que se fija la mirada. Es decir, cuando no se visualiza el
centro de la pantalla el área de visualización es más irregular ya que el ángulo de
visualización no será recto.
Para aproximar el cálculo de dicho área y simplificar el modelo , en la primera
propuesta se calculan de forma independiente cuatro radios, dos de cada eje,
empleando una serie de operaciones algebraicas . El conjunto de parámetros que
intervienen en el cálculo para un eje se recogen en la imagen siguiente
Figura 32: Desplazamiento del ojo en el eje horizontal y radios de visión en dicho eje.
Donde 𝑑 es la distancia del ojo al centro de la pantalla, ∝ es el ángulo de de giro
del ojo en el eje y 𝛿 es el radio de la foveola, siendo éstos los datos iniciales que se
poseen para el cálculo de los radios.
Las variables 𝑙 y ℎ son, respectivamente, la amplitud del desplazamiento en el
eje con respecto al centro del plano y la distancia del ojo a la posición de la mirada en
el eje. Para Calcular el desplazamiento, ℎ, se emplea el teorema de Pitágoras a partir
de 𝑑 y 𝑙.
94
Para el cálculo de los radios 𝑟1 y 𝑟2 se emplea el teorema del seno
𝑟
ℎ
ℎ⁡ ∗ 𝑠𝑒𝑛⁡𝛿
=⁡
⁡ → ⁡⁡𝑟⁡ =
𝑠𝑒𝑛⁡𝛿
𝑠𝑒𝑛⁡𝛾
𝑠𝑒𝑛⁡𝛾
Es necesario el cálculo de 𝛾1 y 𝛾2 a partir de la resta de los ángulos del triángulo
formado por los lados ℎ , 𝑟1 o 𝑟2 y la distancia del ojo al extremo del radio
correspondiente. La formula es::
𝛾 = 180° − ⁡𝛽 − ⁡𝛿
donde 𝛽1 y 𝛽2 difieren en sus cálculos. El primero es calculado nuevamente a
partir de la resta entre ángulos de un triángulo, esta vez el que forman los lados 𝑑, 𝑙 y
ℎ. Como uno de sus ángulos es recto, 𝛽1 = 90° − ⁡𝛼. Finalmente, 𝛽1 y 𝛽2 conforman un
ángulo llano, por lo que 𝛽2 = 180° − 𝛽1 .
4.3.3. REPRESENTACIÓN
Se trata de recoger los datos estimados para cada posición del ojo registrada y
representarlos secuencialmente. Se representa el área de visualización de ambos ojos
empleando los cuatro radios calculados junto con el punto central donde se estima que
está fijada la mirada. De fondo se contempla la imagen que se visualizó en ese
instante durante la prueba o alguna que permita la búsqueda de errores producidos en
la prueba. Dada la estructura final de la prueba, en la que las imágenes que se
muestran son de calibración o tienen un punto centrado en la pantalla en el que el
sujeto debe fijar la mirada en todo momento, se propuso colocar una imagen con todos
los puntos de calibración y así con una única imagen se podría contemplar si el sujeto
realizaba correctamente toda la prueba.
El objetivo principal de la herramienta es ser capaz de visualizar movimientos de
la mirada que no son concebibles en la prueba, aunque también se pretende que goce
de cierta precisión en el cálculo de la zona de visualización, sometido siempre a las
restricciones que nos ofrece el sistema de captación a la hora de tomar los registros.
Un conjunto de escenas cuando se emplea el sistema de representación de la
mirada sería el siguiente:
95
Figura 33: Escenas de la representación de la mirada. De arriba abajo, la imagen de fondo de la
representación, la mirada al centro de la pantalla por parte del sujeto y la mirada de un punto
extremo, que presenta un error debido a imperfecciones del modelo y del registro.
96
6. IMPLEMENTACIÓN
6.1. IMPLEMENTACIÓN DEL SISTEMA DE DETECCIÓN Y CLASIFICACIÓN
6.1.1. ELECCIÓN DEL LENGUAJE
Iniciado el proyecto, no se impusieron ningunas exigencias en cuanto a lenguaje
de programación en el que debiesen ser creadas las herramientas. La elección del
lenguaje debía ser pensada para adecuarse al proyecto. Al tratarse de la elaboración
de herramientas para la investigación, cargada principalmente de cálculo numérico, se
decantó por elegir algún lenguaje destacado para esta clase de programación. Las
principales alternativas fueron Octave, M y Python.
Lenguaje M[25]
M es un lenguaje de programación propio de la herramienta de software
matemático MATLAB. MATLAB ofrece un entorno de desarrollo integrado (IDE) y está
disponible para las plataformas Unix, Windows, Mac OS X y GNU/Linux .
Figura 34: Logotipo de MATLAB
La principal ventaja que tiene implementar en este lenguaje es disfrutar de las
prestaciones que ofrece MATLAB para trabajar. Entre sus prestaciones básicas se
hallan: la manipulación de matrices, la representación de datos y funciones, la
implementación de algoritmos, la creación de interfaces de usuario y la comunicación
con programas en otros lenguajes y con otros dispositivos hardware. En MATLAB se
pueden ampliar sus capacidades con las cajas de herramientas (toolboxes).
Es un software muy usado en universidades y centros de investigación y
desarrollo.
Entorno Octave[26]
Al igual que ocurre con M, Octave es un programa libre para realizar cálculos
numéricos. Como indica su nombre es parte de proyecto GNU. Es considerado el
equivalente libre de MATLAB. Entre varias características que comparten se puede
destacar que ambos ofrecen un intérprete permitiendo ejecutar órdenes en modo
97
interactivo. Octave está escrito en C++, lo que hace que su
lenguaje soporte gran parte de las funciones de las bibliotecas
básicas de C.
El lenguaje Octave, al igual que M, está orientado al
análisis numérico y está pensado para trabajar con matrices,
aportando mucha funcionalidad para trabajar con éstas.
Figura 35:Logo de Octave
Además, la sintaxis es casi idéntica a la utilizada en
MATLAB.
Python[27]
Python es un lenguaje de programación interpretado, es decir, no requiere ser
compilado, tan sólo del intérprete de Python. En este lenguaje se hace hincapié en una
sintaxis que favorezca un código legible y por ello una de las medidas que se toman
para cumplirlo es que sea tabulado.
Su programación es multiparadigma, permitiendo programación orientada a
objeto, declarativa o imperativa, y programación funcional.
Posee una licencia de código abierto y una gran variedad de librerías que
proporcionan la herramienta perfecta para muchos ámbitos, incluido la investigación,
de forma gratuita.
Figura 36:Logo de Python
6.1.2. PRIMERA DECISIÓN: USO DE OCTAVE
En un principio se contempló usar Python, ya que es un lenguaje que ofrece
mayores posibilidades en cuanto a programación. No obstante, conocidos los
requisitos iniciales y el material con el que había que tratar, registros con datos
numéricos masivos que encajaban perfectamente para la manipulación de los mismos
mediante matrices, se impuso la alternativa de usar un lenguaje como M u Octave.
Además, en reuniones posteriores con la compañera de proyecto se supo que estaba
familiarizada con la herramienta MATLAB, por lo que la balanza se inclinó aún más
hacia la elección del lenguaje M. No obstante, GNU Octave, al tener un intérprete al
98
igual que MATLAB y una sintaxis de su lenguaje casi idéntica a M, también era una
alternativa apropiada y con la ventaja principal de ser software libre.
Trabajar con MATLAB suponía la compra de la herramienta o trabajar en los
ordenadores de la Universidad de Sevilla, ya que posee licencia. Para eliminar esas
dificultades se optó por usar GNU Octave. Actualmente, este programa carece de
interfaz gráfica oficial y estable, pero se empleó una versión personalizada de la
Universidad de la Universidad Politécnica de Madrid, Octave UPM, que ofrece una
interfaz gráfica sencilla que se asemeja en parte a la de MATLAB y sería fácil de usar
por mi compañera a la hora de emplear la herramienta de detección de
microsacádicos.
6.1.3. CAMBIO DE ENTORNO: EVENTOS Y EEGLAB
Al comenzar con la recogida de registros usando la prueba de experimentación
implementada, surgió un nuevo requisito importante. Los registros que se nos facilitó a
comienzos del proyecto no contemplaban la recogida de información de los eventos
durante la prueba. Los ficheros que sí almacenaban dicha información eran generados
por otro sistema de registro. El problema es que tales ficheros estaban codificados en
un formato especial poco común, desconocido para casi todas las herramientas,
incluido Octave. En el laboratorio de Biología se empleaba para trabajar con estos
ficheros una herramienta de MATLAB llamada EEGLAB. Se desconocían herramientas
similares que trabajasen con Octave y al carecer de tiempo para investigar alternativas
en profundidad se optó por emplear MATLAB para acceder a dicha herramienta.
6.1.4. DESCRIPCIÓN DEL ALGORITMO
El pseudocódigo general del algoritmo inicialmente fue el siguiente:
Entrada:
*registro = {DH, DV, IH, IV}’, matriz de tamaño 4xN, donde cada fila representa
un ojo y eje: derecho horizontal, derecho vertical, izquierdo horizontal e izquierdo
vertical, y cada columna denota la posición del ojo en el canal correspondiente en un
momento dado de tiempo, calculado por la velocidad de captura del sistema de
registro.
*inicio, Momento del registro desde donde se quiera detectar movimientos.
*fin, Momento del registro hasta donde se quiera detectar movimientos.
99
Salida:
*lista_clasificada = <LDC,LIC>, dos matrices de tamaño FxC, una referente a
cada ojo, donde cada fila representa un movimiento detectado en el registro y cada
columna posee un dato de interés para el estudio sobre el movimiento en cuestión
detectado. La última columna sirve para clasificar el movimiento detectado.
Función:
registro_recalibrado recalibra(registro)
procesado  procesa_registro(registro_recalibrado[inicio:fin]);
lista_movimientos  detecta_movimientos(procesado);
lista_clasificada  clasifica_movimientos(lista_movimientos);
devuelve lista_clasificada
Las funciones auxiliares requieren parámetros. Estas funciones se describen con
más detalle a continuación:
Recalibra
Entrada:
*registro = {DH, DV, IH, IV}’
*distancia_extremos, entero positivo que denota la distancia, en centímetros,
de un punto de la calibración extremo al centro de la pantalla.
*distancia_pantalla, entero positivo que indica la distancia de los ojos del
sujeto de pruebas a la pantalla.
Salida:
*registro_recalibrado = {DHR, DVR, IHR, IVR}’, matriz 4xN, es equivalente a
Registro, pero con los valores de la posición escalados para que se asemejen a la
realidad de las condiciones de la prueba realizada.
Función:
registro_recalibrado  [ ]
grados_reales  arctg(distancia_extremos/distancia_pantalla)*2;
por cada fila F en registro_recalibrado hacer:
centro_canal  localiza_centro_calibración(F);
F  F – [Centro_canal,…,Centro_canal];
N
100
grados_extremos  localiza_extremos(F);
relación_extremos_reales_con_registro  grados_reales/grados_extremos;
F  F* relación_extremos_reales_con_registro;
añade_fila(registro_recalibrado, F);
devuelve registro_recalibrado
La posición del centro y los extremos de las señales registradas del ojo se
localizan, primero identificando el momento en que empieza la calibración en el
registro y luego estimando el número de tramas que transcurren entre la aparición de
un punto y otro de la calibración.
Procesa_registro
Entrada:
*registro_rec = {DHR, DVR, IHR, IVR}’
*k, entero positivo
Salida:
*procesado = {DHP, DVP, IHP, IVP}’, matriz con la información de
registro_recalibrado transformada tal que destaca información relevante para la
detección de los movimientos oculares.
Función:
procesado  [ ];
por cada F, fila en registro_rec, hacer:
tam  longitud(F);
fila_procesada  [ ];
desde i = k hasta tam hacer:
valor_procesado  (registro_rec[i] – registro_rec[i-k])/k;
fila_procesada  fila_procesada ∪ {valor_procesado/400};
añade_fila(procesado, fila_procesada);
devuelve procesado
Intuitivamente, se trata de calcular la velocidad de cada momento del registro.
Se divide cada valor por 400 para convertir a segundos.
Detecta_Movimientos
101
Entrada:
* registro_rec = {DHR, DVR, IHR, IVR}’
* procesado = {DHP, DVP, IHP, IVP}’
* vel_min, número real positivo, velocidad que debe alcanzar un movimiento.
* dur_min, entero positivo, número de tramas mínimo que dura un movimiento.
* ampl_min, número real positivo, grados mínimo de desplazamiento de un
movimiento.
Salida:
* lista_movimientos = <LD,LI>, par de matrices de distinto número de filas
pero mismo de columnas. Las filas contienen los movimientos detectados en cada ojo
y las columnas los datos calculados de relevancia sobre cada movimiento detectado.
Función:
tam  longitud(DHP);
LD  detecta_un_ojo(DHR, DVR, DHP, DVP);
LI  detecta_un_ojo(IHR, IVR, IHP, IVP);
lista_movimientos  <LD, LI>;
devuelve lista_movimientos
Fase Detecta_un_ojo(HR,VR, HP, VP)
L = [ ];
ind = 0;
inicio  signo(HP[0] + VP[0]);
desde i = 1 hasta tam hacer:
siguiente  signo(HP[i] + VP[i]);
si inicio ≠ siguiente, entonces:
supera_duración  i-ind >= dur_min;
supera_velocidad  existe(HP[i:ind]+VP[i:ind], >=vel_min);
supera_amplitud  sum(compone(i,ind)) >= ampl_min;
si supera_duracion && supera_velocidad && supera_amplitud entonces:
L  L ∪ {calcula_datos(i, ind-1)};
ind  i;
inicio  siguiente;
devuelve L;
102
La función auxiliar existe comprueba si en un tramo dado de un vector se cumple
una condición dada. La función auxiliar compone realiza una serie de operaciones
trigonométricas para calcular a partir de los dos ejes del registro, HR y VR, los grados
desplazados totales en cada momento del mismo.
Calcula_datos se encarga de generar un vector de datos relevantes de cada
tramo del registro en el que se ha detectado un movimiento. Inicialmente, en la primera
implementación se almacenaba los momentos de inicio y de fin de cada movimiento, la
amplitud total del movimiento, la velocidad máxima alcanzada y la duración total del
movimiento.
Clasifica_movimientos
Entrada:
*Lista_Movimientos = <LD,LI>
Salida:
*Lista_Clasificada = <LDC,LIC>, Lista_Movimientos pero con una columna
más añadida a cada lista, que indica el tipo de movimiento del que se trata.
Función:
LDC  clasifica_un_ojo(LD);
LIC  clasifica_un_ojo(LI);
Lista_Clasificada  <LDC, LIC>;
devuelve Lista_Clasificada
Fase clasifica_un_ojo(L):
LC  [ ];
para cada fila f en L hacer:
si (L[duracion] > dur_max_sacadico || L[vel]>vel_max_sacadico) entonces:
LC  LC ∪ {L, 2};
en caso contrario, si (L[amplitud_total] > ampl_t_microsac || L[vel] >
vel_max_sacadico) entonces:
LC  LC ∪ {L, 1};
en caso contrario:
LC  LC ∪ {L, 0};
103
devuelve LC;
Deben definirse varios términos: duracion es el índice con el que accede a la
posición que contiene información sobre la duración del movimiento; vel, sobre la
velocidad pico y amplitud_total, sobre el desplazamiento más grande alcanzado por el
movimiento.
dur_max_sacadico,
vel_max_sacadico,
ampl_t_microsac
y
ve_max_sacadico son parámetros estimados de las propiedades más relevantes de
los movimientos sacádicos y microsacádicos, que los caracterizan y distinguen para
poder ser clasificados.
6.1.5. SEGUNDA VERSIÓN: AÑADIDOS Y MODIFICACIONES
Con los cambios en el diseño de la primera versión, la implementación se
modificó. Se añadió una función de filtrado anterior al procesamiento y además se
hicieron cambios en la implementación de algunas funciones. El algoritmo siguió con
las mismas características de entrada y salida.
Función:
registro_recalibrado recalibra(registro);
registro_filtrado filtra(registro_recalibrado[inicio:fin]);
procesado procesa_registro(registro_filtrado);
lista_movimientos  detecta_movimientos(procesado);
lista_clasificada  clasifica_movimientos(lista_movimientos);
devuelve lista_clasificada
Filtra
Se realizaron diversas implementaciones de filtrados básicos. Destaca el filtro de
ventana:
-
Filtra_ventana:
Entrada:
*registro_rec = {DHR, DVR, IHR, IVR}’
*k, entero
Salida:
*registro_filtrado
Función:
104
tam  longitud(DHR);
por cada señal s en registro_rec hacer:
señal_filtrada  [ ];
desde i = k hasta tam-k hacer:
valor  suma(s[i-k:i+k]/k*2);
señal_filtrada  [señal_filtrada, valor];
registro_filtrado  registro_filtrado ∪ {señal_filtrada};
devuelve registro_filtrado;
Se rechazaron el uso de este tipo de filtros por eliminar las características de
velocidad de los movimientos oculares que se pretendían localizar. Se optó por
realizar un filtro personalizado.
-
Filtro_personalizado
Entrada:
*registro_rec = {DHR, DVR, IHR, IVR}’
*amplitud, número real
*umbral_modificacion, número real
Salida:
*registro_filtrado
Función:
por cada señal s en registro_rec hacer:
señal_filtrada  [ ];
modificacion_actual  1.0;
mientras modificación_actual > umbral_modificacion hacer:
cuenta = 0;
s_filtrada  [s[1]];
Desde i = 2 hasta tam hacer:
atras  s[i]-s_filtrada[i-1];
delante  s[i+1] – s[i];
menor_amplitud  (max(atras, delante, amplitud) == amplitud);
distinta_inclinación  distinto_signo(atrás,delante);
105
si menor_amplitud && distinta_inclinacion entonces:
s_filtrada  [s_filtrada, (s[i-1]+s[i+1]/2)];
cuenta cuenta+1;
en caso contrario:
s_filtrada  [s_filtrada, s[i]];
modificacion_actual = cont/tam;
s  s_filtrada;
registro_filtrado  registro_filtrado ∪⁡{s_filtrada};
devuelve registro_filtrado;
Procesa
En este algoritmo cambó el modo en que se procesaba para cada dato del
registro de la siguiente forma:
desde i = k hasta tam hacer:
puntos_anteriores  sum(registro_rec[i-k : i-1]);
puntos_posteriores  sum(registro_rec[i+1 : i+k]);
valor_procesado  (puntos_posteriores - puntos_anteriores)/k2
fila_Procesada  fila_procesada ∪ {valor_procesado/400};
También recalcar que desde esta versión se usa el registro ya filtrado como
parámetro de entrada.
Detecta_Movimientos
La detección se modificó de manera leve en el diseño, pero cambia
considerablemente el algoritmo. Las entradas y salidas son las mismas, pero cambia
la fase interna del algoritmo:
Fase Detecta_un_ojo:(HR,VR, HP, VP)
L = [ ];
i=0
mientras i < tam hacer:
vel abs(HP[i] + VP[i]);
106
si vel>=vel_min, entonces:
ind  i
mientras vel >= vel_min hacer:
i  i+1;
vel  abs(HP[i] + VP[i]);
supera_duración  i-ind >= dur_min;
supera_amplitud  sum(compone(i,ind)) >= ampl_min;
si supera_duracion && supera_velocidad && supera_amplitud entonces:
L  L ∪ {calcula_datos(i, ind-1)};
ind = i;
en caso contrario:
i  i+1;
devuelve L;
Representación
La representación de los movimientos detectados consiste en el algoritmo
completo de detección y clasificación, añadiendo la funcionalidad de mostrar las
gráficas de las señales del registro, remarcando el inicio y el final de cada movimiento
detectado.
Entrada (Los mismos que en algoritmo general):
*registro = {DH, DV, IH, IV}’.
*inicio, fin.
Salida:
*lista_clasificada = <LDC,LIC>.
*gráficas, muestra por pantalla de los canales del ojo que tiene el registro,
remarcando inicio y final de cada movimiento detectado.
Función:
registro_recalibrado recalibra(Registro);
registro_filtrado filtra(registro_recalibrado[inicio:fin]);
procesado = {DHP,DVP, IHP, IVP}  procesa_registro(registro_filtrado);
lista_movimientos  detecta_movimientos(procesado);
107
lista_clasificada <LDC,LIC>  clasifica_movimientos(lista_movimientos);
dibuja_y_señala(DHP, LDC);
dibuja_y_señala(DVP, LDC);
dibuja_y_señala(IHP, LIC);
dibuja_y_señala(IVP, LIC);
devuelve lista_clasificada;
Fase dibuja_y_señala(señal, lista):
grafica(señal);
por cada fila f en lista hacer:
señala(f[inicio], color_verde);
señala(f[fin], color_rojo);
Donde grafica realiza una representación gráfica de toda la señal introducida
como parámetro de entrada y señala dibuja un punto en la gráfica anterior en el
momento y con el color introducidos como parámetros de entrada. Inicio y fin son los
índices con los que se acceden a las posiciones del vector que contienen los
momentos de inicio y fin de los movimientos almacenados en lista, respectivamente.
6.1.6. TERCERA VERSIÓN: MODIFICACIONES
detecta_movimientos:
Esta función modificó uno de sus parámetros de entrada, vel_min, que es un
umbral de velocidad relativo. El modo de proceder de la función cambia nuevamente
en su fase detecta_un_ojo. Al inicio realiza las siguientes operaciones:
vel_media  media_aritmetica(HP+ VP);
<vel_a,vel_b>  calcula_intervalo(vel_media, vel_min);
Con estos cálculos, lo que varía es la condición de velocidad que se realiza en la
función, pasando a comprobar un único valor de velocidad a comprobar que la
velocidad en un momento dado está comprendida entre vel_a y vel_b.
representación:
Cambia la fase dibuja_y_señala:
grafica(señal);
108
por cada fila f en lista hacer:
si f[clasificacion] ==0 entonces:
colorea(f[inicio],f[fin], color_rojo);
en caso contrario, si f[clasificacion] ==1 entonces:
colorea(f[inicio],f[fin], color_verde);
en caso contrario:
colorea(f[inicio],f[fin], color_amarillo);
Donde clasificacion es un nuevo índice que señala donde se encuentra el tipo de
movimiento del que se trata.
6.1.7. CUARTA VERSIÓN: UTILIDADES AÑADIDAS
Las funciones añadidas para hacer más eficiente el sistema para la realización
del estudio de biología son las siguientes
Lista_por_eventos
Entrada:
*registro = {DH, DV, IH, IV}’.
*eventos, listado de códigos y tiempos de comienzo de eventos.
Salida:
*lista_clasif_eventos
=
<LDE,LIE>,
lista
con
todos
los
movimientos
detectados, clasificados por tipo y por evento.
Función:
lista_clasif_eventos  <[ ], [ ]>;
registro_recalibrado recalibra(registro);
por cada evento e en eventos:
datos_evento  datos(e)
<LDE,LIE>  <LDE ∪ {datos_evento}, LIE ∪ {datos_evento}>
registro_filtrado filtra(registro_recalibrado[inicio:fin]);
procesado  procesa_registro(registro_filtrado);
lista_movimientos  detecta_movimientos(procesado);
lista_clasificada = <LDC,LIC>  clasifica_movimientos(lista_movimientos);
109
<LDE,LIE>  <LDE ∪ LDC,LIE ∪ LDC>;
devuelve lista_clasif_eventos;
Elimina_movimientos
Entrada:
lista_clasificada, lista con datos sobre movimientos detectados en un registro y
ojo.
tipos, lista con los tipos de movimientos a eliminar.
Salida:
lista_filtrada, lista_clasificada sin los registros del tipo que contiene Tipos.
Función:
lista_filtrada [ ];
por cada fila f en lista_clasificada hacer:
si tipos no contiene f[clasificacion] entonces:
lista_filtrada  lista_filtrada ∪⁡{f};
devuelve lista_filtrada;
6.2. IMPLEMENTACIÓN DE LA EXPERIMENTACIÓN
6.2.1. EDICIÓN DE IMÁGENES
Aún sin un diseño completo confirmado de la prueba de experimentación, se
detectó la necesidad de una herramienta de diseño gráfico sencillo que pudiera usarse
para la generación de las imágenes necesarias para la prueba de experimentación.
Cuando se fueron concretando aspectos de la prueba, se estudiaron posibles
alternativas para la creación de la herramienta y de la interfaz de la misma. Se decidió
usar Python apoyado en sus librería tkinter para la creación de la interfaz.
Antes de concretar un diseño completo, se pretendía avanzar en la creación de
la herramienta y se crearon algunas funcionalidades de edición en base a lo poco
concretado sobre la prueba del momento: elaboración de figuras sencillas de tamaño y
posición en la pantalla distinta. No obstante, tras la siguiente reunión de coordinación,
se descartó la elaboración de una herramienta a medida debido a la escasez de
110
tiempo. En su lugar, se decidió emplear alguna disponible comercial o gratuitamente.
Las imágenes que se necesitaban eran varias y debían ser precisas en sus
propiedades, como se ha establecido en el apartado de diseño.
Para la creación de la batería de imágenes se empleó CorelDraw, una aplicación
de diseño gráfico vectorial, es decir, que las imágenes que se crean con dicho
programa están formadas por objetos geométricos independientes, cada uno de ellos
definido por distintos atributos de forma, posición y color, entre otros. Esto permitía ser
preciso en las medidas de las figuras que debían aparecer en cada imagen como se
estableció en el análisis de requisitos.
6.2.2. EEVOKE
La implementación de la prueba se realiza empleando el sistema de registro del
laboratorio de Fisiología. Dicho sistema emplea un paquete de representación llamado
Eevoke, especializado en la presentación de estímulos de carácter visual y auditivo.
Esta herramienta permite crear y mostrar presentaciones de imágenes, vídeos y
sonidos de forma secuencial, especificando el tiempo para cada elemento, así como
un código para ser reconocido. Además permite el uso de periféricos como el teclado o
mandos para que el sujeto interactúe en la presentación. La principal característica es
que durante el tiempo de ejecución de la presentación, el sistema registra en tiempo
real cuando se comienza a mostrar cada elemento y cuando hay una respuesta del
sujeto. Estos datos reciben el nombre de eventos. El hecho de poder registrar los
eventos en tiempo real, determinando cuando ocurrieron con elevada precisión es lo
que hace atractivo a este programa, puesto que son los datos de referencia a partir de
los cuales se podrán realizar el estudio de experimentación con una precisión
aceptable.
Eevoke está desarrollado empleando la herramienta Microsoft Excel, de tal forma
que para programar las pruebas de experimentación se ha de generar hojas de
cálculo, empleando unos comandos definidos. Los comandos son pocos y definen
tareas o propiedades muy básicas. Se escriben por filas y están formados por una
primera celda, en la primera columna, de llamada al comando seguido de una serie de
celdas en donde se definen los parámetros del comando. Los comandos de interés
para la prueba de experimentación del proyecto eran:

PresentMedia: Empleado para presentar una imagen. Sus parámetros son:
o
Código: el valor con que se guardará el evento que marca el
momento de aparición cuando se represente la prueba.
111
o
Archivo: Imagen a ser presentada. Se debe introducir el enlace a
partir de la funcionalidad de Eevoke Set Media File, que lleva a
una selección de archivo.
o
Presentaciones: Número de veces a ser presentada.
o
LugarX: Posición en el eje horizontal de la pantalla donde colocar
la imagen.
o
LugarY: Posición en el eje vertical de la pantalla donde colocar la
imagen.

SetTiming: Determina los tiempos de comienzo y duración de cada
imagen a continuación de este comando.
o
IEE: intervalo entre estímulos (tiempo entre el final y comienzo de
un nuevo estímulo, sea texto o imagen)
o

Tiempo de presentación: Duración del estímulo.
PrepareResponses: Activa durante un tiempo la posibilidad de dar una
respuesta por parte del usuario con algún periférico.
o
Código: el valor con que se representa el evento.
o
Respuesta: código que indica qué ha respondido el sujeto (tecla o
botón).
o
Duración: Tiempo que dura la posibilidad de dar respuesta.
6.2.3. IMPLEMENTANDO LA PRUEBA EN EEVOKE
Antes de realizar la prueba establecida, los sujetos deben completar una fase de
calibración, que mostrase los veinticinco puntos de los que constaba. Cada uno debe
durar en pantalla un segundo. La figura 37 muestra un trozo del código que realiza
dicha operación empleando comandos de Eevoke.
Figura 37: Parte de la fase de calibración implementada en eevoke
Tras la fase de calibración se han suceder bloques de presentación de cuatro
imágenes (cuadrado completo, cuadrado incompleto uno, cuadrado incompleto dos y
punto rojo señalando tiempo de respuesta), en las que se han de hacer cambios en la
duración de las pantallas y activar el tiempo de respuesta del sujeto. Las tres primeras
112
imágenes duran en pantalla tres segundos y posteriormente el tiempo de respuesta y
su imagen asociada para alertar al sujeto, 1.5 segundos. La figura 38 muestra un
bloque de presentación completo
Figura 38: bloque de presentación
La implementación de la prueba de experimentación diseñada usando Eevoke
ofrece ciertas dificultades por limitaciones en funcionalidad. Como primer punto se
tenía que realizar el código Eevoke de la prueba al completo manualmente era
totalmente ineficiente. El sistema no ofrece la posibilidad de cargar imágenes en masa,
por lo que la batería de aproximadamente 200 imágenes de la que constaba la prueba
era necesario llamarlas una a una mediante una búsqueda en directorios que ofrece el
sistema llamado Set Media File. Además, las imágenes debían mostrarse en la prueba
sin seguir orden alguno, por lo que había que encontrar algún modo de hacer aleatoria
la secuencia de imágenes en la prueba, funcionalidad que no dispone Eevoke.
Para solucionar estos problemas se ha creado un script generador de código
Eevoke,, para lo cual se ha empleado python. El script crea una lista de datos que
importados en la herramienta Microsoft Excel rellenan los comandos necesarios para
la implementación de la prueba.
6.2.4. SCRIPT GENERADOR DE CÓDIGO EEVOKE
Para simplificar el script, las imágenes a emplear en la prueba de
experimentación deben ser distinguibles entre ellas y estar ordenadas. Por lo que se
decidió usar un sistema de ordenación por carpetas y de distinción de archivos
coherente y simple en estructura:
Directorio_raiz\tamaño_forma\CuadranteDistancia.jpg
El script tuvo esta estructura:
raiz  'Directorio_raiz';
113
tamaños  [7, 14, 21];
formas  conjunto_de_formas; // Varió según la implementación
cuadrantes  [1, 2, 3, 4];
distancia  [5, 10, 15, 20, 25];
calibracion añade_calibracion();
lista  lista ∪⁡calibracion;
por cada elemento t en tamaños hacer:
por cada elemento c en cuadrantes hacer:
por cada elemento d en distancias hacer:
si es_combinacion_valida(t,c,d) entonces:
forma1  elegir(formas);
forma2  elegir(formas ∩ {forma1});
lista  lista ∪⁡{linea_tiempo(tiempo_cuadrados)};
lista  lista ∪⁡{linea_cuadrado(raiz, t, c, d)};
lista  lista ∪⁡{linea_forma(raiz, t, forma1, c, d)};
lista  lista ∪⁡{linea_forma(raiz, t, forma1, c, d)};
lista  lista ∪⁡{linea_tiempo(tiempo_respuesta)};
lista  lista ∪⁡{linea_respuesta(tiempo_respuesta)};
lista  lista ∪⁡{linea_señal_roja()};
reordena(lista);
guarda(lista);
La función elegir(conjunto) escoge aleatoriamente uno de los elementos en
conjunto. Las demás funciones generan código Eevoke: añade_calibración() genera
todos los comandos de presentación de la calibración de la prueba, y las demás
funciones una única línea de comando Eevoke.
6.3. IMPLEMENTACIÓN DEL MODELO
6.3.1. CÁLCULOS CON MATLAB
La amplitud del desplazamiento así como los radios que determinan el área de
cada ojo para cada captura del registro fueron calculados usando MATLAB
implementando las operaciones básicas. A continuación se detalla dicha función:
Entrada:
114
*registro = {DH, DV, IH, IV}, equivalente a una matriz con cuatro filas, una para
cada combinación de eje y ojo. Las columnas equivale a cada captura del registro
(tiempo). Los registros contemplan los grados de desplazamiento
*distancia_pantalla, número real.
Salida:
*area_vision , amplitud del desplazamiento y de los cuatro radios para cada ojo
Función:
area_vision  { };
por cada columna c = [dh, dv, ih, iv ] en registro hacer:
area_captura  [ ]
por cada elemento alfa en c hacer:
amplitud  tan(alfa)*distancia_pantalla
h  raiz(distancia_pantalla2 + amplitud2)
beta1  90 - c
beta2  180 - beta1
gamma1  180 - beta1 - radio_foveola
gamma2  180 - beta2 - radio_foveola
radio1  h*sen(radio_foveola)/sen(gamma1)
radio2  h*sen(radio_foveola)/sen(gamma2)
area_captura  [area_captura, amplitud, radio1, radio2]
area_vision  añade_columna(area_vision, area_captura)
devuelve area_vision
Donde tan(.), sen(.) y raiz(.) son las funciones que realizan las operaciones de
tangente, seno y raíz cuadrada; añade_columna(.,.), realiza una operación de adición
de una columna a una matriz, y radio_foveola es el radio de la foveola en grados, unos
0,85º.
Los datos resultantes tienen la misma unidad de medida que el parámetro de
entrada distancia_pantalla que, debido a el método empleado en el laboratorio,
siempre se usa centímetros.
6.3.2. REPRESENTACIÓN CON C SHARP Y XAML
115
Para presentar el área de visualización se emplea una aplicación desarrollada
empleando el lenguaje de programación C Sharp que realiza la lectura y estructuración
de los datos del centro y radios de los ojos, calculado anteriormente, mientras que su
representación se realiza empleando el lenguaje XAML. La razón principal de esta
decisión está fundamentada en el conocimiento del lenguaje, que aunque básico es
suficiente para cumplir con el diseño de la herramienta.
En C Sharp se crean la estructura de la elipse que se usará para representar el
área de cada ojo, que se usa en la lectura de los datos para recogerlos de una forma
bien estructurada, que se interpretará y visualizará con XAML, como se muestra en la
siguiente figura esquema:
Figura 39. Esquema de procesos de la herramienta
Los datos se van cargando de forma sincronizada siguiendo la misma secuencia
temporal establecida en los datos registrados y se representan, en una pantalla del
mismo tamaño que el empleado durante las pruebas. Como fondo se emplea una
imagen con todos los puntos de calibración, tal como se expuso en el diseño. El
algoritmo desarrollado recibe los datos, los interpreta y, finalmente, representa las
elipses que definen el área de visualización en la ventana.
Dado que los datos están en centímetros, se requiere una conversión a píxeles
según la resolución de la pantalla que se empleo para la realización de las pruebas. La
pantalla era de 24 x 32 cm y tenía 768 x 1024 píxeles, lo que equivalía a 32 píxeles
por centímetro. Esta conversión se llevó a cabo en el código de C Sharp.
116
117
7. PRUEBAS
7.1. PRUEBAS CON LA HERRAMIENTA DE PROCESAMIENTO
7.1.1. REGISTRO INICIAL DE PRUEBAS
Como se mencionó anteriormente, al comienzo del proyecto se facilitaron unos
registros de alguna prueba realizada con anterioridad en el Departamento. Dicha
prueba consisten en cuatro ciclos de 70 segundos que, a su vez, se componen de una
fase de 60 segundos de exploración de una imagen y 10 segundos de fijación de la
mirada en un punto central de la pantalla. Un fragmento de cada fase se recoge en la
figura siguiente:
Figura 40. Registro inicial. Ojo izquierdo, componente horizontal
Inicialmente se trabajó principalmente con la parte de los registros que
mostraban las fases de exploración, por ser la que presentan mayor variedad de
movimientos. Más adelante, el estudio se centró en la fase de fijación, que contempla
mayores dificultades debido a la intromisión del ruido en la detección de movimientos
tan pequeños como son los microsacádicos.
Una vez fijado en el proyecto, al realizarse el protocolo de investigación, que los
movimientos que se querían estudiar con más detenimiento eran los movimientos
microsacádicos, las pruebas sobre la herramienta se realizaban en función de la
bondad de ésta para procesar, detectar y calcular datos precisos respecto de los
movimientos microsacádicos. La clasificación de los movimientos sacádicos y
parpadeos seguían siendo, no obstante, requisito de proyecto, por lo que también se
realizaron pruebas de esta parte de la herramienta.
7.1.2. RECALIBRADO
118
Se realizaron pruebas para saber la duración de los fragmentos del calibrado
empleando registros calibrados manualmente y comparando los resultados con los
obtenidos aplicando el algoritmo de calibrado sobre los mismos registros mediante la
media de la diferencia entre todas las capturas del registro. Uno de los parámetros que
se trataban de ajustar era el tiempo que se tarda entre la aparición de una imagen y la
siguiente en la prueba, que idealmente debería ser el que se establece en la
implementación de la prueba de experimentación pero está sometido a un tiempo de
retraso. El otro parámetro trata de estimar el tiempo en promedio que tarda en
reaccionar el sujeto y fijar la mirada en el punto de la calibración que aparece. El
primer parámetro se estimó sumando intervalos de tiempo a el tiempo ideal de
aparición de un segundo, y el segundo partiendo de un tiempo de reacción nulo hasta
aproximadamente medio segundo. Los resultados se muestran en la siguiente gráfica:
Figura 41: resultado de estimación de parámetros para la calibración.
Los resultados revelaron que aplicando un tiempo medio de duración de la
imagen de 1.075 segundos (o lo que es lo mismo, un tiempo de retraso en la aparición
de cada imagen de 0.075 segundos) y un tiempo de estabilización de la mirada en un
punto de 0.25 segundos, el error cometido era mínimo. Con valores de tiempo de
retraso menores los errores cometidos eran muy elevados, mientras que con valores
por encima los resultados eran más aceptables, pero seguían siendo peores al mínimo
encontrado. Ha de mencionarse que la ilustración que se muestra en la figura
contempla el error promedio de los casos. Las pérdidas durante el registro, que
119
alcanza un valor muy elevado, se diferenciarán según un calibrado manual en varios
grados con respectos al un recalibrado usando la herramienta, mientras que con los
microsacádicos, de un tamaño minúsculo, contemplarán una diferencia en sus valores
muy pequeña.
Con los datos anteriores se logró ajustar el algoritmo de recalibrado. Ante casos
anómalos o con muchas pérdidas durante la fase de calibrado se empleaba una
recalibración manual a partir de la visualización de los registros y tomando los datos
del centro y los extremos a ojo.
7.1.3. PROCESAMIENTO
El cálculo del registro procesado entre un valor del registro original (recalibrado)
y su inmediatamente anterior se veía muy influenciado por el ruido. Es por ello que se
hizo el cálculo con valores a mayor distancia, pero no a tanta como para hacer pasar
desapercibido los movimientos microsacádicos. Según antiguos estudios, la duración
de los microsacádicos se estiman en una media de 14ms. Dado que nuestro sistema
de adquisición funciona a 400 Hz, 14ms equivalen a 5.6 capturas de nuestro registro.
Por ello, para no perder microsacádicos en el procesado, se estableció no emplear
una distancia entre puntos superior a 4 capturas, equivalente a 10 milisegundos.A
medida que se aumentaba la distancia entre puntos para el procesado, el ruido iba
menguando, por lo que se usó el límite superior establecido para procurar no perder
microsacádicos. Además, a partir de cuatro puntos el ruido no se disipaba mucho más,
pero sí disminuía considerablemente la velocidad, como se puede apreciar en la figura
29 d, por lo que no aportaba ninguna ventaja incrementar la distancia.
120
Figura 42: Diferencias en el procesado. En a. aparece el fragmento procesado, en b. el procesado entre
un punto y su anterior. En c. se muestra el procesado con una diferencia de 4 puntos y en d. con una
diferencia de 6 puntos
7.1.4. FILTRADO
Al comienzo, con el uso de filtros básicos, la mejora, en cuanto a eliminación del
ruido, era notable, consiguiendo una señal mucho más nítida.
121
Figura 43: registro en puro (parte superior) y filtrado mediante un smooth (parte inferior). A la
derecha, los resultados del procesamiento posterior.
Como se puede comprobar en la figura 43, la reducción del ruido fue notable. Sin
embargo, la amplitud y velocidades máximas alcanzadas disminuían en un porcentaje
elevado. Mediante el cálculo de las diferencias de velocidad en promedio de varios
registros, el decremento era de un 1.8%. Sin embargo, se apreciaba más la diferencia
en fragmentos
con valores de velocidad elevada, con máximas del 35%. Esto
dificultaba la tarea de detección posterior. Además, los datos modificados eran
relevantes para el estudio y no era aceptable.
Tras el desarrollo e implementación de un filtro más específico para nuestro
problema, se sometió a prueba. La eliminación de ruido era algo menos eficaz que los
y dependía de la correcta estimación de los parámetros de entrada. Con unos
parámetros adecuados acordes a la amplitud del ruido, el decremento del ruido era del
1.6% en promedio. Además, en el procesamiento no se eliminaban las características
pendientes de los movimientos de importancia debido a que no afecta a los
movimientos bruscos de una amplitud elevada. En la figura siguiente vemos una
comparación gráfica:
122
Figura 44: Muestra de la diferencia de ruido aplicando, a la derecha, un filtro smooth y a la izquierda el
filtro personalizado
El algoritmo de filtrado poseía la desventaja de poseer una complejidad en
tiempo muy elevada. Mientras que los algoritmos básicos de filtrado operaban con
registros de una cantidad en torno a los veinte mil datos en cuestión de milisegundos,
el algoritmo de filtrado personalizado tardaba varios segundos (Ver figura 45) Por ello
se planteó rechazar la solución, pero el tiempo del que se poseía para terminar el
proyecto a estas alturas era escaso y éste detalle de eficiencia no era tan relevante
como para retrasar el proyecto con tal de solucionar dicho problema.
Figura 45: comparación de la eficiencia del filtrado smooth con el del filtro personalizado
7.1.5. DETECCIÓN
123
Pruebas y comparación entre la primera y segunda versión respecto de
los resultados
Para comprobar la bondad de la herramienta se usó con fragmentos de registros
y posteriormente se compararon con lo observado por un ojo experto como es el caso
de los miembros de Biología. La tabla con los datos recogidos se muestra a
continuación:
Duración
real
estimada
Duración
calculada
Duración
calculada
v2
Duración
máxima
real
Duración
máxima
detectada
Duración
máxima
detectada
v2
Cantidad
Microsacádicos
reales
Cantidad
Microsacádicos
detectados
Sujeto 1
330
407
6
Sujeto 2
351
513
7
9
6
11
20
10
Sujeto 3
315
441
7
10
6
10
17
9
Sujeto 4
234
342
7
11
5
9
25
8
Sujeto 5
143
220
5
8
5
8
15
7
*Unidad: frames o capturas [1 frame = 2.5ms ]
7
5
9
15
9
Figura 46: Datos recogidos de sujetos de investigación
Esta fase en su primera versión erraba debido principalmente al ruido que poseía
la señal. Alrededor del 30% de los movimientos detectados por la herramienta no era
movimientos microsacádicos, sino más bien ruido o algún temblor.
Total
Sujeto 5
Sujeto 4
Sujeto 3
Sujeto 2
Sujeto 1
0.00% 5.00% 10.00% 15.00% 20.00% 25.00% 30.00% 35.00% 40.00%
Figura 47: Análisis de la fase de detección del sistema en función del número de microsacádicos
detectados, correctos e incorrectos
También se añadían tramos al inicio y al final de un movimiento que no formaban
parte del mismo, incrementando erróneamente la duración de los microsacádicos La
duración de los microsacádicos estimadas variaba mucho, con 62 milisegundos de
máximo, aunque la media se estimaba en torno a los 22 milisegundos con los datos
recogidos con la herramienta. Comparando con la estimación de los miembros de
124
Biología, unos 16 milisegundos de promedio, la diferencia media entre las duraciones
era de 6 milisegundos y la máxima en 45 milisegundos.
0.03
0.025
0.02
Duración real
0.015
Duración calculada
0.01
0.005
0
Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Sujeto 5 Total
Figura 48: Análisis de la fase de detección del sistema en función de la duración de los microsacádicos
calculados
Con el cambio de considerar movimientos relevantes aquellos cuya velocidad
sea siempre superior a un umbral, la detección tuvo resultados bastante diferentes a la
versión anterior y mucho más aceptables. El primer punto a destacar era la eliminación
de movimientos que claramente no eran movimientos relevantes para el estudio, como
se ejemplifica en la figura
Figura 49: Cambios en la detección. El tramo en rojo se consideraba un microsacádico en la anterior
versión
Se redujo en un porcentaje aceptable el número de microsacádicos erróneos
detectados a un 16% en promedio total, como se puede observar en la figura 38. Se
125
estimó nuevamente escogiendo fragmentos de registros de usuarios distintos,
detectando movimientos
con la herramienta y comparándolos con la cantidad de
microsacádicos reales que detectaba un miembro de Biología. Los datos se recogen
en la siguiente figura.
Total
Sujeto 4
Sujeto 3
Sujeto 2
Sujeto 1
0.00%
5.00%
10.00%
15.00%
20.00%
25.00%
Figura 50:Análisis de la fase de detección del sistema en versión 2 en función del número de
microsacádicos detectados, correctos e incorrectos
La segunda mejora se encuentra en la localización más ajustada del inicio y fin
de los movimientos del ojo. No obstante, si antes se recogían tramos que no
pertenecían a los movimientos, ahora en ocasiones no recoge el inicio o el final de
algunos movimientos por tener una velocidad más lenta a la del umbral (Figura 51).
Figura 51: Los movimientos dejan de poseer tramos excesivamente largos que claramente no
corresponden al mismo. Ahora es posible encontrarlos sin sus extremos, pero no es algo que
perjudique al estudio.
Los movimientos microsacádicos se detectaban por lo general con una o dos
capturas de menos, reduciendo por tanto su duración estimada entre 2.5 y 5
milisegundos. Las máxima de error se encontraba en 7,5 milisegundos. Los datos
obtenidos quedan resumidos en la figura 52
126
0.02
0.018
0.016
0.014
0.012
Duración real
0.01
Duración calculada
0.008
0.006
0.004
0.002
0
Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Sujeto 5 Total
Figura 52: Análisis de la fase de detección del sistema en versión 2 en función de la duración de los
microsacádicos calculados
Pruebas y comparación entre la segunda y tercera versión respecto de la
estimación de un umbral
Era difícil estimar los parámetros de entrada, principalmente la velocidad umbral
y necesitaba cambiar sus parámetros varias veces en distintos fragmentos de un
mismo registro. El intervalo de valores más apropiado para la velocidad era entre 6 y
10, si bien el primero admitía zonas de ruido como micromovimientos y con el segundo
se perdían microsacádicos y los detectados se acortaban mucho.
127
Figura 53: Parámetros de umbral de velocidad apropiados para la fase de detección versión 2.
Acercándose al umbral se detecta al mismo número de movimientos que por un experto.
En la gráfica anterior se puede observar que valores de velocidad pequeños
suponen la detección en exceso de microsacádicos, mientras que un valor elevado
suponen la pérdida de microsacádicos. La pendiente es muy elevada, lo que implica
que con un pequeño cambio en el valor del umbral supondrá un cambio elevado en el
número de microsacádicos detectados. Esto influye en la usabilidad del sistema, ya
que se requerirá de estimar un valor de velocidad de forma muy precisa para
acercarse al valor adecuado de detección y no tener que variar demasiado dicho valor
a lo largo del estudio de un registro.
Se probó la detección de los movimientos con el uso de velocidades umbrales
relativas para el cálculo de un intervalo en función de la media obtenida. Hubo mejora
en el uso de la herramienta, en tanto que no era necesario estimar varias veces una
velocidad umbral adecuada en cada tramo del registro; sin embargo, al emplearlo con
registros de sujetos de experimentación diferentes aún se requería el uso de umbrales
distintos. Los mejores valores del umbral mínimo se establecen entre 11 y 13.
128
Figura 54:Parámetros de umbral de velocidad apropiados para la fase de detección versión 3.
Acercándose al umbral se detecta al mismo número de movimientos que por un experto.
En la figura 54 se puede apreciar que la pendiente de la gráfica es mucho menos
pronunciada que la obtenida en la versión anterior del algoritmo. Esto explica el porqué
es menos dificultoso encontrar un valor adecuado a partir del cual se detecten bien los
microsacádicos, puesto que no se requiere afinar tanto en el cálculo de los parámetros
para acercarse al umbral.
7.1.6. CLASIFICACIÓN
El algoritmo de clasificación funcionaba bien para distinguir entre los
movimientos que se solicitaban. El mayor problema encontrado fue el conjunto de
movimientos bruscos que se producían antes y después de un parpadeo, que eran
clasificados como movimientos sacádicos y microsacádicos. Ponemos como ejemplo
la figura 55. En ella se puede observar la clasificación de movimientos en una parte del
registro de un sujeto que ha hecho dos parpadeos, reflejado en color amarillo, y una
errónea detección y clasificación de movimientos a causa dichos parpadeos.
Recordemos que en rojo quedan reflejados los movimientos microsacádicos y en
verde los sacádicos.
129
Figura 55: Muestra de una región con parpadeos y movimientos erróneamente detectados y
clasificados a causa éstos.
Para realizar las pruebas de interés sobre el algoritmo de clasificación, se
escogieron a azar zonas de registros de sujetos de pruebas y se le aplicó dicho
algoritmo. Con los resultados obtenidos y valiéndonos además de la herramienta de
representación, comparamos una serie de parámetros que quedan reflejados en la
siguiente tabla:
Movimientos detectados
Microsacádicos reales
Sacádicos reales
Parpadeos reales
Otros
Movimientos que forman parte de parpadeos
Clasificados como microsacádicos
Clasificados como sacádicos
Clasificados como parpadeos
Sacádicos detectados a causa de parpadeos
Microsacádicos detectados a causa de un
parpadeo
Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4
125
143
103
158
84
90
92
102
0
0
0
0
7
8
1
10
11
21
6
11
30
32
5
45
97
112
99
119
8
11
1
15
20
20
3
24
6
8
1
12
3
4
1
5
Figura 56: Tabla de datos para las pruebas del algoritmo de clasificación
Los movimientos calificados como reales en la tabla es la clasificación realizada
por un experto de biología de los movimientos detectados por la herramienta de
procesado. El contenido de la fila otros son los movimientos detectados por error. Los
130
movimientos que forman parte de parpadeos son los movimientos que en realidad son
detectados a causa del parpadeo más los que determinan el propio parpadeo. Le
siguen en la tabla los resultados de aplicar el algoritmo, esto es, numero de
movimientos clasificados como sacádicos, microsacádicos y parpadeos. Finalmente
las dos últimas filas recogen el número de movimientos sacádicos y microsacádicos
que son detectados u clasificados erróneamente como sacádicos y microsacádicos,
respectivamente, a causa de un parpadeo.
Se hizo un estudio del error por los tipos de movimientos.
Estudio en la clasificación de microsacádicos
Se estudió la cantidad de movimientos detectados por el algoritmo y los
detectados por el experto, así como la cantidad de movimientos erróneos a causa de
una detección de movimientos que no pertenece a ninguno de los estudiados y lo
erróneos a causa de los parpadeos. Los resultados fueron:
140
120
100
Microsacádicos reales
80
60
clasificados como
microsacádicos
40
20
0
Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4 Total
Figura 57: Comparación de los microsacádicos reales con los clasificados como tales por la
herramienta.
Total
Sujeto 4
Sujeto 3
Sujeto 2
Sujeto 1
0.00%
5.00%
10.00%
15.00%
20.00%
25.00%
30.00%
Figura 58: Porcentaje de error en microsacádicos
131
Se muestra una clasificación de movimientos microsacádicos mayor en relación
a los detectados por el experto, en torno a un 17% en promedio total. A continuación
se calcularon diferentes propiedades respecto del error cometido en la clasificación de
microsacádicos, reflejados en la siguiente figura:
120.00%
100.00%
80.00%
60.00%
Error en micros por
parpadeos
40.00%
Error en micros por
detección
20.00%
0.00%
Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4
Total
Figura 59: porcentaje del error debido a los parpadeos o a un fallo en la detección
Se observó que los mayor parte de los fallos cometidos en la clasificación de los
micromovimientos, en torno a un 80% en total, eran debido a una detección de
movimiento erróneos, temblores o ruido. Un 21% era también a causa de una
detección equívoca, pero relacionada a su vez por la generación de parpadeos.
Nótese en este punto que los porcentajes no suman el 100%, sino que en ocasiones lo
exceden. Esto es un error debido a que esporádicamente se han detectado algún
movimiento microsacádico como sacádico.
Estudio en la clasificación de sacádicos
En cuanto movimientos sacádicos, lo primero que se observan en los resultados
es que no se detectan sacádicos por parte del experto. Dado el matiz de las pruebas,
en la que solamente se realiza fijaciones por parte del ojo, era de esperar estos
resultados. No obstante El algoritmo clasifica movimientos como sacádicos. En la
figura siguiente se observan y qué porcentaje de sacádicos son debidos a los
parpadeos.
132
Total
Sujeto 4
Sujeto 3
Sujeto 2
Sujeto 1
0.00%
20.00%
40.00%
60.00%
80.00%
100.00%
Figura 60: Porcentaje de sacádicos detectados erróneamente a causa de los parpadeos
Se observa que la mayoría de los movimientos sacádicos se deben a los
parpadeos. En promedio, más del 80% de la clasificación incorrecta de los
movimientos sacádicos se debe a los parpadeos. Los restantes son a causa de
clasificar
como
movimientos
sacádicos
movimientos
que
son
en
realidad
microsacádicos, o a valores en amplitud elevados pero no tanto como percibirse como
un parpadeo debido a alguna pérdida en el registro. Estos últimos casos son muy poco
frecuentes, como se puede observar en la figura, por lo que afectará poco al estudio
de microsacádicos.
Estudio en la clasificación de parpadeos
La proporción de los fragmentos pertenecientes al parpadeo correcta e
incorrectamente clasificados como tal se contempla en la figura de a continuación:
Total
Sujeto 4
Sujeto 3
Porcentaje de detección
incorrecta de un
parpadeo
Sujeto 2
Porcentaje de detección
correcta de un parpadeo
Sujeto 1
0.00% 20.00% 40.00% 60.00% 80.00%
Figura 61: Porcentaje de detección de fragmentos correcta e incorrecta de un parpadeo
133
Se puede observar un gran porcentaje de fragmentos del parpadeo clasificados
incorrectamente, en torno al 41% en promedio y con un máximo de algo menos que el
50%.
En relación al número de parpadeos se hicieron una serie de estudios,
contemplados en la figura de a continuación:
0.346938776
1.115384615
1.462323391
2.538461538
Total
4.307692308
0.727272727
1.4
2.127272727
2.3
Sujeto 4
Microsacádicos incorrectos por
parpadeo
4.5
Sacádicos incorrectos por
parpadeo
0.166666667
1
1.166666667
Sujeto 3
Movimientos clasificados
incorrectamente por parpadeo
3
5
Movimientos de parpadeos
detectados por parpadeo real
0.19047619
1
1.19047619
Sujeto 2
Cantidad de movimientos
detectados por parpadeo
2.5
4
0.363636364
0.857142857
1.220779221
Sujeto 1
2.857142857
4.285714286
0
1
2
3
4
5
6
Figura 62:Resultados del número de movimientos de cada tipo que surgen por cada parpadeo
Se puede observar que la cantidad total de movimientos detectados en promedio
por cada parpadeo es de 4.3, de entre los cuales las clasificadas realmente es
superior a la mitad, en torno a 2.85 movimientos en promedio. De entre los
movimientos clasificados incorrectamente, se observa nuevamente en esta gráfica que
es bastante pequeño, en torno a 0.36 microsacádicos ficticios por parpadeo. Es por
ello que se pude concluir que los errores en este algoritmo no son demasiado
influyentes a la hora de tomar datos de movimientos microsacádicos y, por tanto, es
aceptable para la recopilación de microsacádicos.
134
7.2. PRUEBAS CON LA HERRAMIENTA DE MODELADO DE LA VISIÓN
Para la validación del modelo se empleó la herramienta desarrollada tomando
como entradas los datos de varios registros. Los movimientos eran bien percibidos,
por lo que la función de detección de errores se cumplía. Sin embargo, hubo
problemas en la precisión de la visualización. Para contemplar un mayor número de
movimientos oculares cuyo objetivo es cambiar el área de visualización se realizó el
estudio empleando los datos de la fase de calibración inicial, ya que las pruebas
consistían únicamente en visualizar el centro de la pantalla produciendo pocos o nulos
desplazamientos del punto de fijación de la mirada.
Se tomaron varios registros recalibrados y se tomó nota de la precisión de la
representación de la mirada en función de si, en primer lugar, el área representada
abarcaba el punto de la calibración observado y, en segundo lugar, si el área caía en
el punto, fuera en la intersección entre los áreas de cada ojo. Se obtuvo una precisión
óptima observando el centro de la pantalla, de un 62% observando los puntos en el
radio más cercano al punto central, un 39% en un radio más alejado y por debajo del
20% en los puntos extremos. Podemos observarlo en la gráfica a continuación.
100.00%
80.00%
60.00%
40.00%
20.00%
0.00%
Figura 63: Porcentaje de precisión de las regiones de la pantalla. A la izquierda, las regiones a las que
pertenecen cada punto de la calibración.
El porcentaje de precisión para cada punto se estima en función de si en dicho
punto caía el área de visión de ambos ojos, de uno solo o de ninguno.
Los motivos de estos resultados pueden deberse principalmente a limitaciones
del sistema de captación para estimar los grados de desplazamiento y de rotación del
ojo conforme se alejan del punto de referencia. Una de las posibles razones es una
135
mala recalibración de los registros, por lo que se realizó un estudio detallado que
concluyó descartando dicha posibilidad debido a que observando varios registros se
aprecian calibraciones como la que muestra la siguiente figura:
Figura 64: visualización del eje vertical durante la fase de calibración
La imagen muestra el eje vertical durante la etapa de calibración. Los intervalos
de tiempo antes de un cambio muy brusco del valor corresponden a los periodos de
tiempo en los que se visualizan puntos en la misma posición con respecto al eje
vertical. Tal como estaba planteada la prueba, antes de cambiar la dirección de la
mirada en dicho eje se mostraban cinco puntos cambiados en el eje horizontal, de
izquierda a derecha. Dado que lo que se visualiza es el eje vertical, no debe ser
apreciable el desplazamiento en el eje contrario, pero puede comprobarse que no es
así. Se divisan unos pequeños saltos en cada intervalo que permite percibir un cambio
en el eje horizontal, además de forma muy clara. Éste es el principal motivo por el que
no es posible alcanzar una gran precisión con la herramienta desarrollada.
Otras de las razones por la que la posición correcta del ojo se ve modificada es
por el movimiento de la cabeza involuntario del sujeto fruto del cansancio muscular,
aspecto que el sistema de captación no es capaz de percibir.
A pesar de que la precisión está acotada, la detección de movimientos con la
herramienta es eficaz. Se percibe bien cuando hay movimientos de amplitud elevada
136
tales como movimientos sacádicos, los cuales son los que ha de localizar durante la
prueba para considerar la prueba inválida, que es el objetivo final de esta herramienta.
137
138
8. CONCLUSIONES
En este trabajo se ha participado en la elaboración de un proyecto de
investigación de carácter biológico, aportando herramientas software que apoyen a la
experimentación que había de llevarse a cabo para la obtención, supervisión y
procesamiento de datos necesarios para la obtención de resultados del estudio.
Hoy en día no hay campo de la ciencia cuya tarea de investigación no esté
apoyada en algún sistema informático, que proporcione eficiencia e incluso una mayor
calidad en la consecución de sus estudios. Sin embargo, este apoyo es relativamente
reciente y por lo general las herramientas informáticas que se amolden a las
necesidades de un campo de investigación, que además se encuentra siempre en
cambio continuo, son escasas o inexistentes. Esta situación proporciona varias vías de
negocio para cubrir las necesidades de un abanico enorme de estudios científicos.
Al comienzo del proyecto se han fijado una serie de objetivos que han sido
desarrollados en los anteriores apartados,
En primer lugar, se ha trabajado acorde a las necesidades de los miembros del
trabajo del departamento de Fisiología. Para cumplir debidamente con este propósito
se han ido recogiendo de manera formal, según un estándar profesional, los requisitos
que han ido surgiendo durante todo el proyecto. Estos requisitos se han tenido en
cuenta siempre y se ha procurado cumplir en todo momento con rigurosidad.
Se ha realizado un estudio del arte de varios temas y técnicas. Por un lado, el
conocimiento de la fisiología y anatomía ocular, para saber tanto el funcionamiento
como la estructura del ojo humano, así como de los movimientos principales que, nos
encontraríamos cara a cara cuando tratásemos los datos de investigación. Todo ello
fue con el propósito de contextualizar el tema principal en torno al cual giraba el
proyecto, los movimientos microsacádicos, punto central del que surge todo el Trabajo
de Fin de Grado, y que resultan poder tener un papel crucial para la visión.
Se realizó otro estudio del arte sobre los sistemas de adquisición para la
detección precisa del movimiento ocular. Se realiza con tal de analizar las bondades y
desventajas de cada uno y aprender más sobre el sistema de adquisición que íbamos
a emplear. Se adquirió conocimientos sobre esta temática de interés profesional.
Para adquirir conocimiento del modo de detectar movimiento a partir de señales
digitales se realizó un estudio del arte del procesamiento de éstas. Se adquirió una
139
formación adecuada para dicha tarea y se consiguió introducirse en esta rama de la
tecnología informática, ausente en el grado que cursa el alumno.
Se hizo un estudio del arte de la creación de un modelo matemático de la visión
ocular, con el propósito de colaborar en la experimentación con un control de errores
en las pruebas, pero también con un objetivo más ambicioso de conseguir representar
con cierta exactitud la posición de la mirada. Con los conocimientos adquiridos se
aprende a manipular datos físico-matemáticos para el emprendimiento en la
simulación de la realidad.
Se diseña e implementan un framework para el apoyo en proyectos de
investigación de fisiología humana, concretamente del movimiento ocular. Las
herramientas consisten en:
a. Un detector y clasificador de movimientos oculares, especializado
principalmente para la investigación con movimientos bruscos, en fases de
fijación y exploración. Los movimientos capaces de detectar son los más
importantes en las fases mencionadas, movimientos sacádicos y
microsacádicos, así como parpadeos involuntarios que se produzcan
durante .
b. Una prueba de experimentación específica que cumple con un protocolo
para el estudio de los movimientos del ojo durante etapas de fijación, en la
que se somete al sujeto de prueba a estímulos diferenciados por diversos
factores
con el fin de analizar la influencia de los mismos en las
propiedades variables de los microsacádicos.
c. Un control de errores de las pruebas de experimentación a partir de la
representación continua de la mirada.
El diseño e implementación de este framework a conveniencia de otra persona
de una disciplina distinta a la del alumno ha aportado una experiencia de peso para la
colaboración en proyectos software en el futuro de la carrera profesional.
Se ha analizado el funcionamiento del sistema de procesamiento, detección y
clasificación de movimientos oculares, así como del sistema de representación de la
mirada para la detección de errores en las pruebas. En vista de los resultados, ambas
cumplen los requisitos del proyecto.
Se ha colaborado como técnico de laboratorio en la ejecución de un protocolo de
experimentación con objeto de obtener datos de relevancia para una investigación a
partir de la cual se pretende desarrollar un artículo de investigación. Esto es un valor
140
añadido que aporta experiencia al alumno como miembro de un equipo de
investigación.
Se han realizado pruebas con los datos extraídos de los datos obtenidos en las
pruebas de laboratorio y se han analizado con tal de obtener resultados. Se han
aportado resultados, en los que se observa cierta influencia de las variables
estudiadas.
Por último, ha adquirido experiencia resolviendo problemas e imprevistos que
fueron surgiendo a medida que se avanzaba en el proyecto para su consecución, así
como desenvoltura en el campo de la investigación. científica.
141
142
BIBLIOGRAFÍA
1. Martinez-Conde, S., Jorge-Otero, M.& Macknik, S. L. The impact of
microsaccades on vision: towards a unified theory of saccadic function. Nature
Rev. Neurosci. 14, 82–96 (2013).
2. Michael H. Ross, Wojciech Pawlina. Histología.
3.
Michel Latarjet, Alfredo Ruiz Liard. Anatomía humana, Volumen 1.
4.
Neil R., Carlson, and Donald Heth C. "5." Psychology: the science of
behaviour, fourth Canadian edition. Toronto: Pearson, 2010. 140–141.
5. Martinez-Conde, S., Macknik, S. L., Troncoso, X. G. & Hubel, D. H.
microsaccades: a neurophysiological analysis. Trends Neurosci. 32, 463–475
(2009).
6. Yarbus, A. L. The perception of an image fixed with respect to the retina.
Biophysics 2, 683–690 (1957).
7. Kowler, E. & Steinman, R. M. Small saccades serve no useful purpose: reply to
a letter by R. W. Ditchburn. Vision Res. 20, 273–276 (1980).
8. Otero-Millan, J., Macknik, S. L. & Martinez-Conde, S. Microsaccades and blinks
trigger illusory rotation in the “rotating snakes” illusion. J. Neurosci. 32, 6043–
6051 (2012).
9. McCamy, M. B. et al. Microsaccadic efficacy and contribution to foveal and
peripheral vision. J. Neurosci. 32, 9194–9204 (2012).
10. Ko, H. K., Poletti, M. & Rucci, M. Microsaccades precisely relocate gaze in a
high visual acuity task. Nature Neurosci. 13, 1549–1553 (2010).
11. Beeler, G. W. Visual threshold changes resulting from spontaneous saccadic
eye movements. Vision Res. 7, 769–775 (1967).
12. Vila Castelar, J. (2006) Otras variables Piscofisiológicas. En J.C-V (Ed.), Una
Introducción a las Psicofisiología Clínica. Madrid, Pirámide.
13. Utrubia C.. "Neurobiología de la Visión". Edicions, 1997.
14. Chávez Romero, A. P., Corrales, L. Diseño y construcción de un sistema de
adquisición de datos para el análisis de los electrooculogramas. XIX Jornadas
en Ingeniería Eléctrica y Electrónica, Escuela Politécnica Nacional.
15. Senatore, A., Touya, A. & Pereira, J. PANTOJO-1. Proyecto de fin de carrera.
Facultad de Ingeniería Universidad de la República (2010-2011).
16. http://legacy.spitzer.caltech.edu/espanol/edu/mundoir/index.shtml. SPITZER:
Space Telescope. California Institute of Technology.
17. Carpenter (1988) Movements of the Eyes. Appendix I "Methods of measuring
eye movements".
143
18. Institute of Electrical and Electrics Engineers. IEEE std 830-1998.
Recommended practice for software requeriment specifications, 1998.
19. Gray LG, Galetta SL, Siegal T et al: The central visual field in homonymous
hemianopsia. Arch Neurol 54:312, 1997
20. Chronos Eye Tracking Device (C-ETD) User Manual
21. Ávila RB. 2001. Metodología de la investigación. Cómo elaborar la tesis y/o
investigación. Estudios y Ediciones R.A., Lima.
22. Engbert, R. & Kliegl, R. (2002) ,Microsaccade uncover the orientation of covert
attention. Vision Research 43, 1035-1045.
23. Villarroel Salcedo, José Luis. Sistemas de Tiempo Real.
24. Cortés Espinosa de los Monteros, Nuria. Ediciones Didácticas y Pedagógicas
S. L., ed. Actividades para unidad didáctica sobre trigonometría.
25. Página oficial de MathWorks , MATLAB.
http://www.mathworks.es/products/matlab/
26. Página oficial de GNU, Octave. http://www.gnu.org/software/octave/
27. Página oficial de Python. https://www.python.org/
144
145
ANEXO 1. PRUEBAS CON LA HERRAMIENTA DE
EXPERIMENTACIÓN
La batería de imágenes realizadas para la prueba no podían realizarse en el
mismo sistema de representación, debido a que requería la instalación en el sistema
de la aplicación software para ello, y ésta no poseía los requisitos apropiados.
Además, no era recomendable para el óptimo funcionamiento como sistema en tiempo
real la instalación de aplicaciones en el equipo. No obstante, dado que las imágenes
debían ser precisas sí era necesario comprobar la correcta visualización de éstas por
la pantalla del sistema de representación. Es por ello que para comprobar que las
imágenes eran correctas se precisaba estar en el laboratorio. En un principio también
fueron comprobados los formatos de imágenes que admitía y así emplear las de
menos peso para así optimizar en tiempo de carga y que hubiera menor retraso. El
formato más acertado fue JPG.
Las pruebas anteriores a las realizadas con la implementación definitiva de la
herramienta de experimentación fueron hechas entre los miembros del proyecto en
reuniones sin necesidad de usar el sistema de registro, puesto que los problemas que
surgían en el diseño eran fácilmente reconocibles sin necesidad de recurrir a los
registros.
Para probarlo, se requería usar el sistema de representación de la prueba, que
es donde se implementa. Los miembros del proyecto nos disponíamos a realizar parte
de la prueba situándonos sentados frente a la pantalla donde se muestra la prueba de
experimentación, sin grabar registros. Para que la prueba fuera aceptada no se podía
reconocer las figuras que se mostraban de forma instantánea, sino que debía requerir
cierto esfuerzo.
146
Figura 65: Laboratorio, área de presentación de estímulos.
Las primeras pruebas en el laboratorio fueron con la batería de imágenes
compuesta por figuras geométricas. Se determinaron imágenes innecesarias y la
necesidad de otras no recogidas en un principio, pero el mayor problema residió en la
facilidad para reconocer las figuras desde que se mostraban por pantalla. Con una
batería de cincuenta imágenes, un 10% se categorizaron de triviales y no aportaban
nada al estudio; en torno al 96% de las imágenes se acertaban y el 88% de manera
directa (ver figura 66)
Aciertos directos
Número aciertos
imágenes triviales
0.00%
20.00% 40.00% 60.00% 80.00% 100.00% 120.00%
Figura 66: Resultados del análisis de la batería de imágenes con figuras geométricas
Se determinó que hubiera que cambiarse las figuras por otras. Se optó por los
cuadrados vacíos a los que le faltaban lados.
147
Cuando se tuvo una muestra de las imágenes se presentaron y resultaba más difícil su
detección. Nuevamente se hizo una representación con 50 imágenes, obteniéndose un
90% de aciertos pero sólo un 40% de forma sencilla y directa (ver figura 67).
Aciertos directos
Número aciertos
imágenes triviales
0.00%
20.00%
40.00%
60.00%
80.00%
100.00%
Figura 67: Resultado del análisis de la batería de imágenes con cuadrados sin lados
Se añadieron cuadros completos en la presentación antes de cada cuadro sin
lado, así como un cuadrado con un lado diferente, tal como se explicitó en el diseño,
con tal de aumentar la dificultad de reconocer la figura y aumentar la atención del
sujeto. También era necesario colocar la imagen para señalar al sujeto que podía dar
sus respuestas y habilitar la posibilidad de contestar por medio del mando.
Cuando se probó la prueba al completo se percibieron errores mostrando ciertas
imágenes. No se mostraban las imágenes que correspondían. Esto era debido a un
error en la edición de las imágenes y también un incorrecto nombramiento de las
mismas. En una batería total de 280 imágenes, la cantidad de imágenes mal editadas
rondaba el 2% y las mal nombradas el 7%. Las carpetas afectadas rondaban el 26%
del total, 14 carpetas (Ver figura 68).
Carpetas afectadas
Errores edicion
Errores nombres
0.00%
5.00%
10.00%
15.00%
20.00%
25.00%
30.00%
Figura 68: Errores en la batería de imágenes
148
Además, tras observar la prueba al completo no convencía la duración
establecida en un principio para el periodo de respuesta. Era demasiado escaso,
estimándose una pérdida del 9% de las respuestas al no dar ocasión a dar una
respuesta con el mando.
Las imágenes con nombres incorrectos fueron rectificadas y los tiempos de
duración en pantalla fueron aumentados a tres segundos por cuadrado y segundo y
medio de periodo de respuesta. Nuevamente se comprobó el buen funcionamiento de
la prueba, comprobándose la presentación de las imágenes apropiadas y que los
tiempos correspondiesen a los indicados. Tras el test fue aceptada por cumplir con su
función. Los códigos asociados a las imágenes así como los que se marcaban
contestando con el mando eran correctos. Sólo faltaba añadir la fase de calibración al
inicio. No había error en las imágenes de calibración y su implementación en la prueba
fue correcta.
El tiempo total de la prueba ascendió a los 14 minutos, aproximadamente. Dado
que el tiempo al que se debía de mantener al sujeto observando la pantalla era
excesivo, la prueba se dividió en dos partes para dar un descanso a los sujetos entre
cada una. Tuvo que añadirse una fase de recalibrado para cada parte de la prueba. La
división de la prueba resultó trivial, tan solo fue necesario duplicar la fase de
calibración al inicio de cada parte y dividir en una misma proporción las imágenes.
PRUEBAS CON SUJETOS
Con el diseño e implementación de la prueba definitiva, una vez sometido a
valoración y ser aceptada, se procedió al montaje del resto del sistema de análisis y
experimentación. Éstos eran el sistema de registro, la cámara de infrarrojos conectado
a un ordenador y pantalla para la detección precisa del ojo y otro sistema de registro
que contemplaba la comunicación con el sistema de representación de la prueba para
la recopilación de tiempos de los eventos.
149
Figura 69: Laboratorio. Sistemas de representación, registro y calibración.
Una vez montado, realizamos pruebas sobre los miembros del proyecto para
comprobar el correcto funcionamiento del sistema y adquirir experiencia recopilando
datos. La realización de las pruebas tiene una serie de fases.
Lo primero que es necesario hacer es establecer las condiciones base para
proceder a la presentación de la prueba. Se debe situar al sujeto a una distancia a la
pantalla adecuada, en torno a los 50 centímetros, y centrado respecto al centro.
También se ha de colocar adecuadamente el casco de detección infrarroja, ajustando
las sujeciones adecuadamente para evitar que el casco se mueva durante la prueba.
Tras esto, debe localizarse el centro de la pupila mediante el sistema de captación y
calibrado, ajustando el casco de modo que al recorrer con la mirada cualquier parte de
la pantalla no haya pérdida del ojo por el sistema (ver figura 70).
150
Figura 70: Captando el centro de la pupila con el software de calibrado. Se debe ir ajustando el casco tal
que se detecte el ojo mirando a cualquier punto de la pantalla.
Tras conseguir establecer las condiciones de inicio,la segunda fase consiste en
ejecutar la prueba. Se necesita ejecutar la grabación en los dos sistemas de registro
por separado, no sin antes dar un nombre a los ficheros de registro que se vayan a
generar, y ejecutar la prueba en el sistema de representación. Se ha de estar
pendiente durante la prueba de que no haya demasiadas pérdidas que hagan
inservible el registro, en cuyo caso habría que parar las grabaciones y la
representación, y volver a realizar esta fase (ver Figura 71).
Figura 71: Perdidas ocurridas en una prueba. Visualizadas con EEGlab tras la prueba
151
Una vez acabada la representación de la prueba, se ha finalizar la grabación de
los dos sistemas de registro de forma independiente.
Para tener constancia de los datos del sujeto, así como de los ficheros que
corresponden a sus pruebas, se escribe todo su historial en un cuaderno de
laboratorio.
La recopilación de los registros usando la prueba de experimentación se realizó
durante tres semanas sobre 10 sujetos. Las dificultades surgidas a la hora de calibrar
el sistema de captación tal que no perdiese el centro de la pupila así como sucesos
como la repentina pérdida de la pupila durante la ejecución de la prueba, que suponía
volver a calibrar y realizar la prueba desde el principio, ralentizó el periodo de las
pruebas. Esta cantidad de tiempo de pruebas afectó también a los sujetos, que
llegaron a estar hasta dos horas sometidos a las mismas y el cansancio influyó en los
registros.
Dado el tiempo limitado del que se disponía, no se pudo realizar pruebas con
registros limpios a la mayoría de los sujetos. Analizando los dos registros en mejor
estado, uno por cada parte de la prueba, de los diez sujetos se obtuvo que el 12%
eran registros prácticamente sin pérdidas, el 21% mostraban pérdidas entre el 6 y 10%
del total de datos, un 50% con pérdidas de datos entre un 11 y un 15% y finalmente un
17% con una cantidad de pérdidas mayor que el 15% (Figura 72).
R. pérdidas
>15%
R. pérdidas
0-5%
R. pérdidas
6-10%
R. pérdidas
11-15%
Figura 72: Clasificación de los registros recogidos en el laboratorio en función de las pérdidas de datos.
Como queda contemplado en la figura 73, analizando por sujetos, a un 20% se
le podría realizar un estudio completo por poseer todas las muestras; al 60% se le
podrá hacer el estudio pero las pérdidas impedirían obtener el total de los valores para
152
cada variable, y el 20% restante no tenía suficiente información recopilada como para
incluirlo en el estudio.
20% 20%
60%
Estudio
completo
Con pérdidas en
variables
Intratable
Figura 73: Clasificación de los sujetos según su capacidad de aportación de sus registros al estudio.
ANÁLISIS DE RESULTADOS
Con los registros recopilados de utilidad para la investigación, se procedió a la
extracción de los datos de interés empleando la herramienta de procesamiento y
detección creada.
No hubo tiempo para realizar un estudio exhaustivo de las características de
imagen contempladas en función de todas las propiedades de los microsacádicos
calculadas. Sí se pudo obtener resultados sobre el número de microsacádicos.
Se hicieron estudios independientes de la influencia de las tres variables
controladas en las pruebas, esto es, cuadrante, tamaño y distancia al centro de la
figura. Se hicieron estudios independientes de estas variables y un último estudio
clasificando las imágenes por dificultad.
Los resultados de la influencia de la posición de la figura en un cuadrante distinto
en la frecuencia de los microsacádicos mostraron un aumento mayor de la cantidad
del número de microsacádicos cuando la figura se encuentra en el cuarto cuadrante,
con unos resultados de 13 microsacádicos por bloque de prueba (de 15 segundos de
duración) , es decir, 0,87 microsacádicos por segundo, frente a los 11.3
microsacádicos por bloque en los demás cuadrantes, unos 0.74 por segundo.
153
Se debe recalcar que estos resultados son bastante bajos, pero ello es debido a
que los registros que se han usado presentan varias pérdidas de información de forma
regular, sobre todo debido a parpadeos, que además interrumpen la aparición de
microsacádicos. Aunque no podamos obtener valores absolutos correctos, sí podemos
hacer un estudio de la diferencia entre factores. Este primer estudio mostró un
incremento del número de microsacádicos del 17.52% cuando se muestran figuras en
el cuarto cuadrante respecto a la aparición en los demás. Los datos concernientes a
este estudio se observan en la figura 74.
Cuarto cuadrante
Tercer cuadrante
Segundo cuadrante
Primer cuadrante
9.5
10
10.5
11
11.5
12
12.5
13
13.5
Figura 74: Numero de microsacádicos por bloque (15 segundos aprox.)
Los resultados respecto de la distancia al centro mostraron una diferencia
notable de la frecuencia de microsacádicos tratando de divisar objetos lejanos con
respecto a objetos más cercanos a zonas de mayor agudeza visual. Los datos
muestran una media de 13 microsacádicos por bloque con figuras a una distancia de
20 y 25 grados al centro frente a los 10 microsacádicos por bloque con figuras a 10 y
15 grados. Contrario a lo que se esperaba, hubo un aumento de los microsacádicos
cuando se mostraban objetos a 5 grados de distancia, unos 11.75 microsacádicos por
bloque. Los resultados completos pueden verse en la figura 75.
154
25 grados
20 grados
15 grados
10 grados
5 grados
0
2
4
6
8
10
12
14
Figura 75: Número de microsacádicos por bloque en relación a la distancia de la figura al centro de la
pantalla
El tamaño de las figuras no tuvo resultados demasiado diferentes. Los resultados
para un tamaño de 7x7 píxeles fueron de 11.7 microsacádicos por bloque; 11.35 para
los de 14x14 pixeles y 12,25 para los de 21x21 pixeles. Los resultados quedan
reflejados en la figura 76.
21pxl
14pxl
7 pxl
10.8
11
11.2
11.4
11.6
11.8
12
12.2
12.4
Figura 76:Número de microsacádicos por bloque en relación al tamaño de la figura al centro de la
pantalla
155
Por último, se hizo una clasificación de las imágenes por dificultad. Las
imágenes calificadas como difíciles fueron aquellas que se encontraban a mayor
distancia del centro y eran del menor tamaño contemplado, mientras que las fáciles
fueron la de mayor tamaño y a menor distancia del centro de la pantalla. El resto fue
clasificado como de dificultad intermedia. Los resultados fueron coherentes con lo
esperado. Una dificultad mayor conllevaba un aumento del número de los
microsacádicos. Las imágenes difíciles obtuvieron una media de 12.55 microsacádicos
por bloque, las de término medio mostraron 11.4 microsacádicos por bloque y las
imágenes sencillas obtuvieron una media de 10.8 microsacádicos por bloque. Queda
reflejado en la figura 77.
Fáciles
Medio
Difíciles
9.5
10
10.5
11
11.5
12
12.5
13
Figura 77: Número de microsacádicos por bloque respecto de la dificultad de la figura observada
156