Download Versión FINAL - Iván Lorenzo Rubio

Document related concepts
no text concepts found
Transcript
UNIVERSIDAD DE OVIEDO
ESCUELA DE INGENIERÍA INFORMÁTICA
TRABAJO FIN DE GRADO
“PLATAFORMA EDUCATIVA BASADA EN REALIDAD
AUMENTADA Y DISPOSITIVOS MÓVILES”
DIRECTOR: Juan Manuel Cueva Lovelle
CODIRECTOR: Oscar Sanjuán Martı́nez
AUTOR: Iván Lorenzo Rubio
VB del Director del Proyecto
Resumen
Con este trabajo se presenta una nueva plataforma para la representación
3D de todo tipo de objetos. Para ello, se usan técnicas de Realidad Aumentada que permiten que, mediante un dispositivo móvil con Android, el usuario
perciba el modelo integrado en el mundo real e incluso que pueda interactuar
con él.
Los objetos se visualizan utilizando dos técnicas de realidad aumentada:
mediante markers o patrones y utilizando la posición GPS. La primera consiste en representar información cuando la cámara reconozca una determinada
imagen y la segunda cuando nos encontremos en una determinada posición
geográfica.
Se pretende ofrecer la máxima información posible de cada modelo. No sólo
información visual, sino también información auditiva. El usuario podrá trasladar y escalar los modelos a través de la pantalla táctil de los dispositivos
móviles.
Todo ello se ha desarrollado de forma que haya una independencia entre
la plataforma y los datos cargados. Ası́ se podrá aplicar a diferentes temáticas
simplemente con un cambio de información, ya que la base será la misma para
todas.
Palabras Clave
Realidad aumentada; markers; GPS; dispositivos móviles; Android; representación 3D;
Abstract
With this project new platform is presented for the 3D picture of all kinds
of objects. For this to be possible, Augmented Reality techniques are used and
these allow the user to perceive the integrated model in the real world with
just one simple Android mobile device and even being able to interact with it.
Objects are displayed using two augmented reality techniques: using markers or patterns and using the GPS position. The first is to represent information when the camera recognizes a certain image and the second when we
are in a particular geographic location.
The maximum possible information of each model is offered. Not just visual
information but also auditory information. The user may move and increase
the size of the models through the touch screen mobile devices.
This has been developed so that there is independence between the platform and the loaded data. This may apply to different subjects simply with a
change of information, because the base is the same for all.
Keywords
Augmented Reality, markers, GPS, mobile devices, Android, 3D picture;
Agradecimientos:
A mis padres y hermana
por su apoyo en los buenos y en los malos
momentos y por sus consejos cuando
las cosas no iban como yo desearı́a.
A Susi
por apoyarme y animarme en todo momento,
por escucharme y preocuparse por todo lo que hacı́a
y por admirar siempre mi trabajo.
A toda mi familia
por el interés mostrado en saber
como se desarrollaba mi proyecto.
A mis amigos
por los buenos momentos que hemos compartido
y que seguiremos compartiendo.
A mis directores de proyecto
por su ayuda y colaboración durante
todo el proceso de desarrollo de este proyecto.
En general, a todas las personas con las que
me he encontrado en estos últimos años
y que me han aportado cosas importantes.
A tod@s ell@s
Gracias.
Índice general
1. Introducción
1.1. Motivación del proyecto . . . . . . . . . . . . . . . . . . . . . . .
1.1.1. En el contexto educativo . . . . . . . . . . . . . . . . . . .
1.1.2. En otras áreas . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.3. ¿Qué se pretende con este proyecto? . . . . . . . . . . . .
1.2. Metodologı́a empleada . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.2. SCRUM . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.3. Adecuación de la metodologı́a al proyecto . . . . . . . . .
1.2.4. Seguimiento del proyecto . . . . . . . . . . . . . . . . . . .
1.3. Estructura del documento . . . . . . . . . . . . . . . . . . . . . .
1.3.1. Capı́tulo 1. Introducción . . . . . . . . . . . . . . . . . . .
1.3.2. Capı́tulo 2. Estado del arte . . . . . . . . . . . . . . . . . .
1.3.3. Capı́tulo 3. Análisis . . . . . . . . . . . . . . . . . . . . . .
1.3.4. Capı́tulo 4. Diseño . . . . . . . . . . . . . . . . . . . . . .
1.3.5. Capı́tulo 5. Modelo de datos . . . . . . . . . . . . . . . . .
1.3.6. Capı́tulo 6. Pruebas software . . . . . . . . . . . . . . . . .
1.3.7. Capı́tulo 7. Pruebas de usabilidad . . . . . . . . . . . . . .
1.3.8. Capı́tulo 8. Presupuesto y Plan Temporal . . . . . . . . .
1.3.9. Capı́tulo 9. Manual del programador . . . . . . . . . . . .
1.3.10. Capı́tulo 10. Manual de internacionalización . . . . . . . .
1.3.11. Capı́tulo 11. Manual del instalador . . . . . . . . . . . . .
1.3.12. Capı́tulo 12. Manual de usuario . . . . . . . . . . . . . . .
1.3.13. Capı́tulo 13. User’s manual . . . . . . . . . . . . . . . . . .
1.3.14. Capı́tulo 14. Conclusiones y lı́neas de investigación futuras
1.3.15. Apéndice A. Tecnologı́as . . . . . . . . . . . . . . . . . . .
1.3.16. Apéndice B. Documentación . . . . . . . . . . . . . . . .
1.3.17. Apéndice C. Código Fuente . . . . . . . . . . . . . . . . .
2. Estado del arte
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Realidad Aumentada . . . . . . . . . . . . . . . . . . . . . . .
2.2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2. Usando markers . . . . . . . . . . . . . . . . . . . . . .
2.2.3. Usando la posición GPS . . . . . . . . . . . . . . . . .
2.2.4. Diferencias entre realidad virtual y realidad aumentada
I
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
2
3
4
4
5
7
9
9
9
10
10
10
10
10
11
11
11
11
11
11
11
11
12
12
12
.
.
.
.
.
.
13
13
14
14
15
16
17
ÍNDICE GENERAL
2.2.5. ARToolKit y sus variantes . . . . . . . . . . . . . . . . . .
¿Qué es ArToolKit? . . . . . . . . . . . . . . . . . . . . . .
¿Cómo funciona? . . . . . . . . . . . . . . . . . . . . . . .
Variantes . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Tecnologı́as empleadas . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1. Comunicación . . . . . . . . . . . . . . . . . . . . . . . . .
Wi-Fi (estándar 802.11b) . . . . . . . . . . . . . . . . . . .
Telefonı́a móvil 3G y 4G . . . . . . . . . . . . . . . . . . .
WiMAX . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bluetooth . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2. Posicionamiento . . . . . . . . . . . . . . . . . . . . . . . .
Sistema de posicionamiento global (GPS) . . . . . . . . . .
Global Orbiting Navigation Satellite System o GLONASS
Galileo . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Magic Book . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.2. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.3. Inconvenientes . . . . . . . . . . . . . . . . . . . . . . . . .
2.5. Proyecto ARiSE . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.2. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.3. Inconvenientes . . . . . . . . . . . . . . . . . . . . . . . . .
2.6. LearnAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.2. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.3. Inconvenientes . . . . . . . . . . . . . . . . . . . . . . . . .
2.7. SciMorph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7.2. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7.3. Inconvenientes . . . . . . . . . . . . . . . . . . . . . . . . .
2.8. ZooBurst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8.2. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8.3. Inconvenientes . . . . . . . . . . . . . . . . . . . . . . . . .
2.9. ARSights . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.9.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . .
2.9.2. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.9.3. Inconvenientes . . . . . . . . . . . . . . . . . . . . . . . . .
2.10. Wikitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.10.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . .
2.10.2. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.10.3. Inconvenientes . . . . . . . . . . . . . . . . . . . . . . . . .
2.11. Layar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11.2. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . .
II
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
18
18
18
19
20
20
20
21
22
23
23
24
27
28
31
31
31
31
32
32
33
33
33
33
34
34
35
35
35
35
36
36
36
36
37
37
38
38
39
39
40
40
41
41
41
Plataforma educativa basada en realidad aumentada y dispositivos móviles
ÍNDICE GENERAL
2.11.3. Inconvenientes . . . . . . . . . . . . . . . . . . .
2.12. Museografı́a Virtual para el museo de sitio de Calakmul
2.12.1. Introducción . . . . . . . . . . . . . . . . . . . .
2.12.2. Ventajas . . . . . . . . . . . . . . . . . . . . . .
2.12.3. Inconvenientes . . . . . . . . . . . . . . . . . . .
2.13. Proyecto ARCO . . . . . . . . . . . . . . . . . . . . . .
2.13.1. Introducción . . . . . . . . . . . . . . . . . . . .
2.13.2. Ventajas . . . . . . . . . . . . . . . . . . . . . .
2.13.3. Inconvenientes . . . . . . . . . . . . . . . . . . .
2.14. ARCHEOGUIDE . . . . . . . . . . . . . . . . . . . . .
2.14.1. Introducción . . . . . . . . . . . . . . . . . . . .
2.14.2. Ventajas . . . . . . . . . . . . . . . . . . . . . .
2.14.3. Inconvenientes . . . . . . . . . . . . . . . . . . .
2.15. Ename 974 . . . . . . . . . . . . . . . . . . . . . . . . .
2.15.1. Introducción . . . . . . . . . . . . . . . . . . . .
2.15.2. Ventajas . . . . . . . . . . . . . . . . . . . . . .
2.15.3. Inconvenientes . . . . . . . . . . . . . . . . . . .
2.16. Dinosaurios en el Museo del Jurásico de Asturias . . .
2.16.1. Introducción . . . . . . . . . . . . . . . . . . . .
2.16.2. Ventajas . . . . . . . . . . . . . . . . . . . . . .
2.16.3. Inconvenientes . . . . . . . . . . . . . . . . . . .
2.17. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3. Análisis
3.1. Descripción general del sistema . . . . . . . . . . . . . . . . .
3.1.1. Perspectiva del producto . . . . . . . . . . . . . . . . .
Interfaces del sistema . . . . . . . . . . . . . . . . . . .
Interfaces de usuario . . . . . . . . . . . . . . . . . . .
Interfaces hardware . . . . . . . . . . . . . . . . . . . .
Interfaces software . . . . . . . . . . . . . . . . . . . .
Interfaces de comunicaciones . . . . . . . . . . . . . . .
Restricciones de memoria . . . . . . . . . . . . . . . .
Funcionamientos . . . . . . . . . . . . . . . . . . . . .
Requisitos de adaptación . . . . . . . . . . . . . . . . .
3.1.2. Funcionalidad del producto . . . . . . . . . . . . . . .
3.1.3. Caracterı́sticas de los usuarios . . . . . . . . . . . . . .
3.2. Requisitos especı́ficos . . . . . . . . . . . . . . . . . . . . . . .
3.2.1. Requisitos comunes de los interfaces . . . . . . . . . . .
Interfaces de usuario . . . . . . . . . . . . . . . . . . .
Interfaces de hardware . . . . . . . . . . . . . . . . . .
Interfaces de software . . . . . . . . . . . . . . . . . . .
Interfaces de comunicación . . . . . . . . . . . . . . . .
3.2.2. Requisitos funcionales . . . . . . . . . . . . . . . . . .
Requisitos funcionales generales . . . . . . . . . . . . .
Requisitos funcionales de la aplicación para dispositivos
Requisitos funcionales del servidor web . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
móviles
. . . . .
Plataforma educativa basada en realidad aumentada y dispositivos móviles
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
42
42
42
45
45
45
45
47
47
47
47
48
48
49
49
50
50
51
51
51
52
53
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
55
55
55
55
56
56
56
56
56
56
57
57
57
58
58
58
59
59
60
60
60
61
62
III
ÍNDICE GENERAL
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
62
63
63
64
64
64
64
65
65
66
66
66
66
66
66
66
67
67
67
68
69
70
74
74
75
76
4. Diseño
4.1. Descripción de los módulos del sistema . . . . . . . . . . . . . . . . . . .
4.1.1. Módulo de Carga de Datos . . . . . . . . . . . . . . . . . . . . . .
4.1.2. Módulo de Localización . . . . . . . . . . . . . . . . . . . . . . .
4.1.3. Módulo de Renderización o Parser de objetos 3D . . . . . . . . .
4.1.4. Módulo de Sonido . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.5. Módulo de Visualización de información . . . . . . . . . . . . . .
4.1.6. Internacionalización de la aplicación . . . . . . . . . . . . . . . . .
4.2. Descripción del diseño de clases . . . . . . . . . . . . . . . . . . . . . . .
4.2.1. Diseño del Módulo de Carga de Datos . . . . . . . . . . . . . . .
4.2.2. Descripción del Módulo de Localización . . . . . . . . . . . . . . .
4.2.3. Descripción del Módulo de Renderización o Parser de objetos 3D .
4.2.4. Descripción del Módulo de Sonido . . . . . . . . . . . . . . . . . .
4.2.5. Descripción del Módulo de Visualización de información . . . . .
4.3. Descripción del modelo dinámico . . . . . . . . . . . . . . . . . . . . . .
4.3.1. Diagrama de actividad general de la aplicación . . . . . . . . . . .
4.3.2. Diagramas de secuencia . . . . . . . . . . . . . . . . . . . . . . .
Caso de uso 1.1: Arrancar Aplicación Cliente . . . . . . . . . . . .
Caso de uso 1.2: Mostrar patrón y obtener información . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
77
78
78
79
79
80
80
81
83
83
86
87
89
90
94
94
96
96
98
3.3.
3.4.
3.5.
3.6.
IV
Requisitos funcionales de los ficheros de configuración
3.2.3. Requisitos de rendimiento . . . . . . . . . . . . . . .
3.2.4. Restricciones de diseño . . . . . . . . . . . . . . . . .
3.2.5. Atributos del software del sistema . . . . . . . . . . .
Seguridad . . . . . . . . . . . . . . . . . . . . . . . .
Fiabilidad . . . . . . . . . . . . . . . . . . . . . . . .
Disponibilidad . . . . . . . . . . . . . . . . . . . . . .
Mantenibilidad . . . . . . . . . . . . . . . . . . . . .
Portabilidad . . . . . . . . . . . . . . . . . . . . . . .
3.2.6. Otros requisitos . . . . . . . . . . . . . . . . . . . . .
Descripción de los actores . . . . . . . . . . . . . . . . . . .
3.3.1. Actor usuario del sistema . . . . . . . . . . . . . . .
Actor Usuario de la aplicación . . . . . . . . . . . . .
Actor Administrador del sistema . . . . . . . . . . .
Modelo de Casos de Uso . . . . . . . . . . . . . . . . . . . .
3.4.1. Lı́mites del sistema . . . . . . . . . . . . . . . . . . .
3.4.2. Casos de uso especı́ficos . . . . . . . . . . . . . . . .
Obtención de información adaptada al contexto . . .
Manipular objetos 3D . . . . . . . . . . . . . . . . .
Configurar opciones de la aplicación . . . . . . . . . .
Publicar datos . . . . . . . . . . . . . . . . . . . . . .
Especificación de Casos de Uso . . . . . . . . . . . . . . . .
Análisis de Interfaces de Usuario . . . . . . . . . . . . . . . .
3.6.1. Descripción de la Interfaz . . . . . . . . . . . . . . .
Interfaz principal de la aplicación . . . . . . . . . . .
Interfaz de la pantalla de configuración . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
ÍNDICE GENERAL
Caso de uso 1.3: Obtener geoposición e información asociada . .
Caso de uso 1.4: Desplazar Objeto . . . . . . . . . . . . . . . .
Caso de uso 1.5: Escalar Objeto . . . . . . . . . . . . . . . . . .
Casos de uso 1.6 y 1.7: Configuración de patrones y posiciones
Configuración de objetos e información . . . . . . . . .
Caso de uso 1.8: Salir Aplicación Cliente . . . . . . . . . . . . .
4.4. Validación de los requisitos . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1. Requisitos comunes de los interfaces . . . . . . . . . . . . . . . .
4.4.2. Requisitos funcionales generales . . . . . . . . . . . . . . . . . .
4.4.3. Requisitos funcionales de la aplicación para dispositivos móviles
4.4.4. Requisitos funcionales del servidor web . . . . . . . . . . . . . .
4.4.5. Requisitos funcionales de los ficheros de configuración . . . . . .
4.4.6. Requisitos no funcionales . . . . . . . . . . . . . . . . . . . . . .
5. Modelo de datos
5.1. Diseño conceptual: Modelo Entidad-Relación
5.1.1. Esquema Entidad-Relación . . . . . .
5.1.2. Entidades . . . . . . . . . . . . . . .
5.1.3. Relaciones . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6. Pruebas software
6.1. Pruebas unitarias . . . . . . . . . . . . . . . . . . . . . .
6.1.1. Definición . . . . . . . . . . . . . . . . . . . . . .
6.1.2. Objetivos . . . . . . . . . . . . . . . . . . . . . .
6.1.3. Planificación . . . . . . . . . . . . . . . . . . . . .
6.2. Pruebas de integración . . . . . . . . . . . . . . . . . . .
6.2.1. Definición . . . . . . . . . . . . . . . . . . . . . .
6.2.2. Objetivos . . . . . . . . . . . . . . . . . . . . . .
6.2.3. Planificación . . . . . . . . . . . . . . . . . . . . .
Módulo Carga de Datos. . . . . . . . . . . . . . .
Módulo de Localización . . . . . . . . . . . . . .
Módulo de Renderización o Parser de objetos 3D
Módulo de Sonido . . . . . . . . . . . . . . . . . .
Módulo de Visualización de información . . . . .
6.3. Pruebas del sistema . . . . . . . . . . . . . . . . . . . . .
6.3.1. Definición . . . . . . . . . . . . . . . . . . . . . .
6.3.2. Objetivos . . . . . . . . . . . . . . . . . . . . . .
6.3.3. Planificación . . . . . . . . . . . . . . . . . . . . .
6.4. Pruebas de rendimiento . . . . . . . . . . . . . . . . . . .
7. Pruebas de usabilidad
7.1. Versiones Alpha . . . . . . . . . . . . . . . . . . . .
7.1.1. Alpha 0.1 (Prototipo no funcional) . . . . .
Descripción y alcance . . . . . . . . . . . . .
Errores descubiertos y soluciones . . . . . .
7.1.2. Alpha 0.2 (Versión servidor con visualización
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
y
.
.
.
.
.
.
.
.
.
. 98
. 99
. 100
.
.
.
.
.
.
.
.
.
101
103
104
104
104
105
105
105
106
.
.
.
.
.
.
.
.
107
107
108
108
109
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
111
. 111
. 111
. 112
. 112
. 112
. 112
. 113
. 113
. 113
. 114
. 115
. 116
. 116
. 118
. 118
. 118
. 118
. 119
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
de archivos 3DS )
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
121
122
122
122
123
123
V
ÍNDICE GENERAL
Descripción y alcance . . . . . . . . . . . . . . . . . . . . . .
Errores descubiertos y soluciones . . . . . . . . . . . . . . .
7.2. Versiones Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2.1. Beta 1.0 (Versión con carga de datos y sonido) . . . . . . . .
Descripción y alcance . . . . . . . . . . . . . . . . . . . . . .
Errores descubiertos y soluciones . . . . . . . . . . . . . . .
7.2.2. Beta 1.1 (Versión con localización e interacción del usuario)
Descripción y alcance . . . . . . . . . . . . . . . . . . . . . .
Errores descubiertos y soluciones . . . . . . . . . . . . . . .
7.2.3. Beta 1.2 (Versión con preferencias del usuario) . . . . . . . .
Descripción y alcance . . . . . . . . . . . . . . . . . . . . . .
Errores descubiertos y soluciones . . . . . . . . . . . . . . .
7.3. Probadores : Los usuarios finales . . . . . . . . . . . . . . . . . . . .
8. Presupuesto y Plan Temporal
8.1. Presupuesto . . . . . . . . . . . . . . . . . . . . . . .
8.1.1. Desarrollo del proyecto . . . . . . . . . . . . .
8.1.2. Tareas globales del proyecto . . . . . . . . . .
8.1.3. Dedicación por perfiles . . . . . . . . . . . . .
8.1.4. Horas y tarifas por perfiles . . . . . . . . . . .
8.1.5. Costes finales y presupuesto total del proyecto
8.2. Plan Temporal . . . . . . . . . . . . . . . . . . . . .
9. Manual del programador
9.1. Paquete com.ivanlorenzo.connection . . . . . . . . .
9.2. Paquete com.ivanlorenzo.data . . . . . . . . . . . .
9.2.1. Paquete com.ivanlorenzo.data.exceptions . .
9.2.2. Paquete com.ivanlorenzo.data.objects . . . .
9.2.3. Paquete com.ivanlorenzo.data.objects.audio
9.3. Paquete com.ivanlorenzo.gui . . . . . . . . . . . . .
9.3.1. Paquete com.ivanlorenzo.gui.dialogs . . . . .
9.3.2. Paquete com.ivanlorenzo.gui.preferences . .
9.4. Paquete com.ivanlorenzo.location . . . . . . . . . .
9.4.1. Paquete com.ivanlorenzo.location.observer .
9.5. Paquete com.ivanlorenzo.parser . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
123
123
124
124
124
124
125
125
126
127
127
127
130
.
.
.
.
.
.
.
133
. 133
. 133
. 134
. 136
. 137
. 137
. 138
.
.
.
.
.
.
.
.
.
.
.
141
. 141
. 141
. 142
. 142
. 143
. 143
. 143
. 144
. 144
. 144
. 144
10.Manual de internacionalización
147
10.1. Internacionalización de la interfaz . . . . . . . . . . . . . . . . . . . . . . . 147
10.2. Internacionalización de los contenidos . . . . . . . . . . . . . . . . . . . . . 149
11.Manual del instalador
151
11.1. Requisitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
11.2. Instalación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
VI
Plataforma educativa basada en realidad aumentada y dispositivos móviles
12.Manual de usuario
12.1. Introducción . . . . . . . . . . . . . . . . . . . . .
12.2. Guı́a de uso . . . . . . . . . . . . . . . . . . . . .
12.2.1. Acciones del usuario sobre los objetos . . .
Mover un objeto . . . . . . . . . . . . . .
Escalar un objeto . . . . . . . . . . . . . .
12.2.2. Opciones del menú de la aplicación . . . .
Establecer las preferencias de configuración
Salir de la aplicación . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
155
. 155
. 155
. 156
. 156
. 157
. 157
. 158
. 159
13.User’s manual
13.1. Introduction . . . . . . . . . . . . . . .
13.2. Use guide . . . . . . . . . . . . . . . .
13.2.1. User actions on objects . . . . .
Move an object . . . . . . . . .
Scale an object . . . . . . . . .
13.2.2. Menu options of the application
Set configuration preferences . .
Exit of the application . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
161
161
161
162
162
162
163
164
165
14.Conclusiones y Lı́neas de Investigación Futuras
167
Bibliografı́a
171
A. Tecnologı́as
A.1. Android . . . . . . .
A.1.1. Historia . . .
A.2. JAVA . . . . . . . .
A.3. NyArtoolkit . . . . .
A.4. min3D . . . . . . . .
A.5. Tecnologı́as XML . .
A.5.1. XML . . . . .
A.5.2. XML Schema
A.5.3. DOM . . . . .
A.6. LATEX . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
173
. 173
. 173
. 175
. 175
. 175
. 176
. 176
. 176
. 176
. 177
B. Documentación
B.1. Paquete com.ivanlorenzo.data.objects.audio
B.1.1. Clase Audio . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . .
Method summary . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
179
181
181
181
181
181
181
181
181
182
Contents
B.1.2. Clase LocalAudio . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 182
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
Miembros heredados de la clase com.ivanlorenzo.data.objects.audio.Audio
(in B.1.1, page 181) . . . . . . . . . . . . . . . . . . . . . . 183
B.1.3. Clase MediaPlayerAdapter . . . . . . . . . . . . . . . . . . . . . 183
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 183
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
Miembros heredados de la clase com.ivanlorenzo.location.observer.ARObservable
(in B.3.3, page 213) . . . . . . . . . . . . . . . . . . . . . . 185
B.1.4. Clase RemoteAudio . . . . . . . . . . . . . . . . . . . . . . . . . 185
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 186
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Miembros heredados de la clase com.ivanlorenzo.data.objects.audio.Audio
(in B.1.1, page 181) . . . . . . . . . . . . . . . . . . . . . . 187
B.2. Paquete com.ivanlorenzo.parser . . . . . . . . . . . . . . . . . . . . . . 187
B.2.1. Interfaz IParser . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
B.2.2. Clase AParser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 188
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
B.2.3. Clase AParser.BitmapAsset . . . . . . . . . . . . . . . . . . . . 191
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 191
VIII
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Contents
B.2.4.
B.2.5.
B.2.6.
B.2.7.
B.2.8.
B.2.9.
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Clase AParser.Material . . . . . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Clase AParser.TextureAtlas . . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Clase AParser.TextureAtlas.BitmapHeightComparer . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Clase Max3DSParser . . . . . . . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Miembros heredados de la clase com.ivanlorenzo.parser.AParser
(in B.2.2, page 187) . . . . . . . . . . . . . . . . . . . . . .
Clase MD2Parser . . . . . . . . . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Miembros heredados de la clase com.ivanlorenzo.parser.AParser
(in B.2.2, page 187) . . . . . . . . . . . . . . . . . . . . . .
Clase MD2Parser.MD2Header . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Plataforma educativa basada en realidad aumentada y dispositivos móviles
191
192
192
192
192
192
193
193
193
193
193
193
193
194
194
194
195
195
195
195
195
196
196
196
196
196
196
197
197
198
199
200
200
200
200
200
201
201
201
202
202
202
202
IX
Contents
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.2.10. Clase ObjParser . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Miembros heredados de la clase com.ivanlorenzo.parser.AParser
(in B.2.2, page 187) . . . . . . . . . . . . . . . . . . . . . .
B.2.11. Clase ObjParser.ObjFace . . . . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Miembros heredados de la clase min3d.parser.ParseObjectFace .
B.2.12. Clase ParseObjectData . . . . . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.2.13. Clase Parser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.2.14. Clase Parser.Type . . . . . . . . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Miembros heredados de la clase java.lang.Enum . . . . . . . . . .
B.3. Paquete com.ivanlorenzo.location.observer . . . . . . . . . . . . . . .
B.3.1. Interfaz IARObservable . . . . . . . . . . . . . . . . . . . . . . .
X
203
203
203
203
203
204
204
204
204
204
204
205
205
206
206
206
206
206
207
207
207
207
207
207
208
208
208
209
209
209
210
210
210
210
210
211
211
211
211
211
211
211
212
212
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Contents
Declaración . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . .
B.3.2. Interfaz IARObserver . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . .
B.3.3. Clase ARObservable . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . .
B.4. Paquete com.ivanlorenzo.gui . . . . . . . . . . . . . .
B.4.1. Clase ARStatus . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . .
Miembros heredados de la clase java.lang.Enum
B.4.2. Clase ARToolkitDrawer . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . .
B.4.3. Clase MessageWhat . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . .
Field summary . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . .
Method summary . . . . . . . . . . . . . . . . . .
Atributos . . . . . . . . . . . . . . . . . . . . . .
Constructores . . . . . . . . . . . . . . . . . . . .
Métodos . . . . . . . . . . . . . . . . . . . . . . .
Miembros heredados de la clase java.lang.Enum
B.4.4. Clase R . . . . . . . . . . . . . . . . . . . . . . .
Declaración . . . . . . . . . . . . . . . . . . . . .
Constructor summary . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
212
212
212
212
213
213
213
213
213
213
213
213
214
214
214
214
214
214
215
215
215
215
215
215
215
216
216
216
216
216
217
217
217
219
219
219
219
219
219
219
220
220
220
220
220
XI
Contents
Constructores . . . . .
B.4.5. Clase R.attr . . . . .
Declaración . . . . . .
Constructor summary
Constructores . . . . .
B.4.6. Clase R.drawable . .
Declaración . . . . . .
Field summary . . . .
Constructor summary
Atributos . . . . . . .
Constructores . . . . .
B.4.7. Clase R.id . . . . . .
Declaración . . . . . .
Field summary . . . .
Constructor summary
Atributos . . . . . . .
Constructores . . . . .
B.4.8. Clase R.layout . . . .
Declaración . . . . . .
Field summary . . . .
Constructor summary
Atributos . . . . . . .
Constructores . . . . .
B.4.9. Clase R.menu . . . .
Declaración . . . . . .
Field summary . . . .
Constructor summary
Atributos . . . . . . .
Constructores . . . . .
B.4.10. Clase R.raw . . . . .
Declaración . . . . . .
Field summary . . . .
Constructor summary
Atributos . . . . . . .
Constructores . . . . .
B.4.11. Clase R.string . . . .
Declaración . . . . . .
Field summary . . . .
Constructor summary
Atributos . . . . . . .
Constructores . . . . .
B.4.12. Clase R.xml . . . . .
Declaración . . . . . .
Field summary . . . .
Constructor summary
XII
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
220
220
220
221
221
221
221
221
221
221
221
221
221
222
222
222
222
222
222
222
222
222
223
223
223
223
223
223
223
223
223
224
224
224
224
224
225
225
225
225
226
226
226
226
227
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Contents
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
B.4.13. Clase TFGARActivity . . . . . . . . . . . . . . . . . . . . . . . . 227
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 228
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
Miembros heredados de la clase android.app.Activity . . . . . . 234
Miembros heredados de la clase android.view.ContextThemeWrapper
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Miembros heredados de la clase android.content.ContextWrapper
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Miembros heredados de la clase android.content.Context . . . . 239
B.4.14. Clase TFGARActivity.MainHandler . . . . . . . . . . . . . . . 241
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 241
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Miembros heredados de la clase android.os.Handler . . . . . . . 241
B.4.15. Clase TFGARActivity.PreviewCallback . . . . . . . . . . . . . 242
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 242
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
B.4.16. Clase TFGARActivity.ScaleListener . . . . . . . . . . . . . . . 243
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 243
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Miembros heredados de la clase android.view.ScaleGestureDetector.SimpleOnSc
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
B.4.17. Clase Util . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 244
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
B.5. Paquete com.ivanlorenzo.data.objects . . . . . . . . . . . . . . . . . . 245
B.5.1. Clase Max3DSObject . . . . . . . . . . . . . . . . . . . . . . . . 245
Plataforma educativa basada en realidad aumentada y dispositivos móviles
XIII
Contents
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 245
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
Miembros heredados de la clase com.ivanlorenzo.data.objects.Object3D
(in B.5.3, page 247) . . . . . . . . . . . . . . . . . . . . . . 246
B.5.2. Clase MD2Object . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 246
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
Miembros heredados de la clase com.ivanlorenzo.data.objects.Object3D
(in B.5.3, page 247) . . . . . . . . . . . . . . . . . . . . . . 247
B.5.3. Clase Object3D . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 247
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
B.5.4. Clase Object3D.File3D . . . . . . . . . . . . . . . . . . . . . . . 250
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 250
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
B.5.5. Clase Object3DCreator . . . . . . . . . . . . . . . . . . . . . . . 251
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 251
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
B.5.6. Clase OBJObject . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 253
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
Miembros heredados de la clase com.ivanlorenzo.data.objects.Object3D
(in B.5.3, page 247) . . . . . . . . . . . . . . . . . . . . . . 253
B.6. Paquete com.ivanlorenzo.data.exceptions . . . . . . . . . . . . . . . . 254
B.7. Paquete com.ivanlorenzo.location . . . . . . . . . . . . . . . . . . . . 254
B.7.1. Clase ARLocationListener . . . . . . . . . . . . . . . . . . . . . 254
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 254
XIV
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Contents
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
Miembros heredados de la clase com.ivanlorenzo.location.observer.ARObservab
(in B.3.3, page 213) . . . . . . . . . . . . . . . . . . . . . . 255
B.7.2. Clase LocationData . . . . . . . . . . . . . . . . . . . . . . . . . . 255
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 256
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
B.8. Paquete com.ivanlorenzo.gui.dialogs . . . . . . . . . . . . . . . . . . . 257
B.8.1. Clase DialogType . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 257
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
Miembros heredados de la clase java.lang.Enum . . . . . . . . . . 258
B.9. Paquete com.ivanlorenzo.data . . . . . . . . . . . . . . . . . . . . . . . 258
B.9.1. Clase AugmentedRealityXMLCompiler . . . . . . . . . . . . . 258
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 259
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
Miembros heredados de la clase com.ivanlorenzo.data.XMLCompiler
(in B.9.7, page 270) . . . . . . . . . . . . . . . . . . . . . . 260
B.9.2. Clase CompilerGenerator . . . . . . . . . . . . . . . . . . . . . . 260
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 260
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
B.9.3. Clase GeoLocation . . . . . . . . . . . . . . . . . . . . . . . . . . 261
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 262
Plataforma educativa basada en realidad aumentada y dispositivos móviles
XV
Contents
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
B.9.4. Clase KnowledgeBase . . . . . . . . . . . . . . . . . . . . . . . . 263
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 264
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
B.9.5. Clase ObjectsXMLCompiler . . . . . . . . . . . . . . . . . . . . 266
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 266
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
Miembros heredados de la clase com.ivanlorenzo.data.XMLCompiler
(in B.9.7, page 270) . . . . . . . . . . . . . . . . . . . . . . 268
B.9.6. Clase Pattern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 268
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
B.9.7. Clase XMLCompiler . . . . . . . . . . . . . . . . . . . . . . . . . 270
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
Field summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 270
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
Atributos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
B.10.Paquete com.ivanlorenzo.connection . . . . . . . . . . . . . . . . . . . 271
B.10.1. Clase ConnectionStatus . . . . . . . . . . . . . . . . . . . . . . . 271
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 272
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
B.11.Paquete com.ivanlorenzo.gui.preferences . . . . . . . . . . . . . . . . 272
B.11.1. Clase TFGPreferencesActivity . . . . . . . . . . . . . . . . . . . 272
XVI
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Contents
Declaración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
Constructor summary . . . . . . . . . . . . . . . . . . . . . . . . . 272
Method summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
Constructores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
Miembros heredados de la clase android.preference.PreferenceActivity
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
Miembros heredados de la clase android.app.ListActivity . . . 273
Miembros heredados de la clase android.app.Activity . . . . . . 274
Miembros heredados de la clase android.view.ContextThemeWrapper
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
Miembros heredados de la clase android.content.ContextWrapper
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Miembros heredados de la clase android.content.Context . . . . 278
C. Código Fuente
C.1. Ficheros de configuración XML . . . . . . . . . . .
C.1.1. Fichero patterns.xml . . . . . . . . . . . . .
patterns.xml . . . . . . . . . . . . . . . . . .
C.1.2. Fichero objects.xml . . . . . . . . . . . . .
objects.xml . . . . . . . . . . . . . . . . . .
C.1.3. Fichero patterns.xsd . . . . . . . . . . . . .
patterns.xsd . . . . . . . . . . . . . . . . . .
C.1.4. Fichero objects.xsd . . . . . . . . . . . . . .
objects.xsd . . . . . . . . . . . . . . . . . .
C.2. Ficheros de recursos de la aplicación Android . . . .
C.2.1. Layout . . . . . . . . . . . . . . . . . . . . .
main.xml . . . . . . . . . . . . . . . . . . .
C.2.2. Menu . . . . . . . . . . . . . . . . . . . . . .
menu.xml . . . . . . . . . . . . . . . . . . .
C.2.3. Preferencias . . . . . . . . . . . . . . . . . .
preferences.xml . . . . . . . . . . . . . . . .
C.2.4. Internacionalización . . . . . . . . . . . . . .
values/strings.xml . . . . . . . . . . . . . . .
values-en/strings.xml . . . . . . . . . . . . .
values-es/strings.xml . . . . . . . . . . . . .
C.2.5. AndroidManifest . . . . . . . . . . . . . . .
AndroidManifest.xml . . . . . . . . . . . . .
C.3. JNI . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.4. Clases Java . . . . . . . . . . . . . . . . . . . . . .
C.4.1. Paquete com.ivanlorenzo.data . . . . . . . .
C.4.2. Paquete com.ivanlorenzo.data.objects . . . .
C.4.3. Paquete com.ivanlorenzo.data.objects.audio
C.4.4. Paquete com.ivanlorenzo.data.exceptions . .
C.4.5. Paquete com.ivanlorenzo.location . . . . . .
C.4.6. Paquete com.ivanlorenzo.location.observer .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
281
. 281
. 281
. 281
. 282
. 282
. 284
. 284
. 284
. 284
. 285
. 285
. 285
. 286
. 286
. 286
. 286
. 287
. 287
. 287
. 288
. 289
. 289
. 291
. 295
. 295
. 313
. 321
. 327
. 328
. 332
XVII
Contents
C.4.7. Paquete com.ivanlorenzo.parser . . . . .
C.4.8. Paquete com.ivanlorenzo.connection . . .
C.4.9. Paquete com.ivanlorenzo.gui . . . . . . .
C.4.10. Paquete com.ivanlorenzo.gui.preferences
C.4.11. Paquete com.ivanlorenzo.gui.dialogs . . .
C.5. Pruebas JUnit . . . . . . . . . . . . . . . . . . .
DataTest.java . . . . . . . . . . . . . . .
ParserTest.java . . . . . . . . . . . . . .
XVIII
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
334
369
370
405
406
406
406
408
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Índice de figuras
1.1. Esquema del proceso de Scrum . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Página web para seguimiento del proyecto . . . . . . . . . . . . . . . . . .
2.1.
2.2.
2.3.
2.4.
2.5.
2.6.
2.7.
2.8.
2.9.
Logotipo de Realidad Aumentada . . . . . . . . . . . . . . . . . . . . . .
Realidad Aumentada . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Distintos markers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Juego Invizimals de la PSP . . . . . . . . . . . . . . . . . . . . . . . . . .
Diferencia entre VR y AR . . . . . . . . . . . . . . . . . . . . . . . . . .
Funcionamiento de ARToolKit . . . . . . . . . . . . . . . . . . . . . . . .
Estándares para redes de área local inalámbricas. . . . . . . . . . . . . .
Estándares de Wireless LAN. . . . . . . . . . . . . . . . . . . . . . . . .
El sistema de posicionamiento global es el principal sistema de localización
en entornos exteriores desarrollado hasta la fecha . . . . . . . . . . . . .
2.10. Se emplean cuatro satélites para determinar las coordenadas tridimensionales del receptor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11. El sistema GLONASS . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.12. Satélites GLONASS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.13. Diagrama del sistema “Galileo” . . . . . . . . . . . . . . . . . . . . . . .
2.14. MagicBook y su aplicación de enseñanza para volcanes . . . . . . . . . .
2.15. Aplicación del proyecto ARiSE . . . . . . . . . . . . . . . . . . . . . . .
2.16. Es necesario un equipamiento especial para su uso . . . . . . . . . . . . .
2.17. Aplicación de Brazos y Músculos . . . . . . . . . . . . . . . . . . . . . .
2.18. Aplicación de Biologı́a en la que se muestran los órganos . . . . . . . . .
2.19. SciMorph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.20. ZooBurst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.21. ARSights . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.22. Wikitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.23. Wikitude ofrece información en tiempo real del sitio observado . . . . . .
2.24. Layar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.25. Layar muestra información de una capa . . . . . . . . . . . . . . . . . . .
2.26. Imagen aérea de Calakmul . . . . . . . . . . . . . . . . . . . . . . . . . .
2.27. Situación de Calakmul, Campeche . . . . . . . . . . . . . . . . . . . . . .
2.28. Demo de Realidad Aumentada donde los objetos digitales quedan superpuestos al objeto real, en este caso, un libro en el que el usuario va pasando
hojas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.29. Escena del proyecto ARCO . . . . . . . . . . . . . . . . . . . . . . . . . .
XIX
.
.
.
.
.
.
.
.
6
9
14
15
15
16
17
18
21
21
. 24
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
27
28
29
31
32
32
33
34
35
36
37
39
40
41
42
43
43
. 45
. 46
ÍNDICE DE FIGURAS
2.30. Escena virtual del proyecto ARCHEOGUIDE
2.31. Sistema de ARCHEOGUIDE . . . . . . . . .
2.32. Simulación del sistema para la visualización de
2.33. Dinosaurios en el MUJA . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
reconstrucciones en Ename
. . . . . . . . . . . . . . . .
3.1. Diagrama de casos generales de uso . . . . . . . . . . . . . . . . . . . . .
3.2. Diagrama de casos de uso especı́fico para “Obtención de información adaptada al contexto” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3. Diagrama de casos de uso especı́fico para “Manipular objetos 3D” . . . .
3.4. Diagrama de casos de uso especı́fico para “Configurar opciones de la aplicación” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5. Diagrama de casos de uso especı́fico para “Publicar datos” . . . . . . . .
3.6. Boceto de la interfaz de la aplicación móvil . . . . . . . . . . . . . . . . .
3.7. Boceto de la interfaz al mostrar las opciones . . . . . . . . . . . . . . . .
3.8. Boceto de la interfaz de configuración . . . . . . . . . . . . . . . . . . . .
48
49
50
51
. 67
. 68
. 68
.
.
.
.
.
69
69
75
76
76
4.1. Descomposición modular del sistema . . . . . . . . . . . . . . . . . . . . .
4.2. Ejemplo de programa en otro idioma . . . . . . . . . . . . . . . . . . . . .
4.3. Diagrama de clases del Módulo Carga de Datos . . . . . . . . . . . . . . .
4.4. Diagrama de clases del Módulo de Localización . . . . . . . . . . . . . . .
4.5. Diagrama de clases del módulo de Renderización o Parser de objetos 3D. .
4.6. Diagrama de clases del módulo de Sonido. . . . . . . . . . . . . . . . . . .
4.7. Diagrama de clases del Módulo Visualización de información. . . . . . . . .
4.8. Diagrama de actividad general del sistema. . . . . . . . . . . . . . . . . . .
4.9. Diagrama de secuencia para el caso de uso 1.1 Arrancar Aplicación Cliente.
4.10. Ciclo de vida de una Activity en Android . . . . . . . . . . . . . . . . . . .
4.11. Diagrama de secuencia para el caso de uso 1.2 Mostrar patrón y obtener
información. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.12. Diagrama de secuencia para el caso de uso 1.3 Obtener geoposición e información asociada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.13. Diagrama de secuencia para el caso de uso 1.4 Desplazar Objeto. . . . . . .
4.14. Diagrama de secuencia para el caso de uso 1.5 Escalar Objeto. . . . . . . .
4.15. Diagrama de secuencia para los casos de uso 1.6 y 1.7. . . . . . . . . . . .
4.16. Diagrama de secuencia de la carga de datos. . . . . . . . . . . . . . . . . .
4.17. Diagrama de secuencia para el caso de uso 1.8 Salir Aplicación Cliente. . .
77
81
85
87
88
90
92
95
96
97
98
99
100
100
101
102
103
5.1. Diagrama entidad-relación del modelo de datos. . . . . . . . . . . . . . . . 108
7.1.
7.2.
7.3.
7.4.
7.5.
7.6.
7.7.
7.8.
7.9.
XX
Una captura de la versión prototipo. . .
Interfaz de la versión Alpha 0.2 . . . . .
Interfaz de la versión Beta 1.1 . . . . . .
Prototipo para la versión final . . . . . .
Diseño de la pantalla de configuración . .
Editando en la pantalla de configuración
Pantala principal final . . . . . . . . . .
Configuración final 1 . . . . . . . . . . .
Configuración final 2 . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
122
124
125
126
127
128
128
129
129
Plataforma educativa basada en realidad aumentada y dispositivos móviles
ÍNDICE DE FIGURAS
8.1.
8.2.
8.3.
8.4.
8.5.
8.6.
8.7.
Estimación de horas del desarrollo del proyecto . . . . . . . . .
Estimación de horas de todas las tareas del proyecto . . . . . . .
Dedicacion de cada uno de los perfiles en las tareas del proyecto
Horas y tarifas para cada perfil . . . . . . . . . . . . . . . . . .
Costes finales del presupuesto . . . . . . . . . . . . . . . . . . .
Diagrama de Gannt . . . . . . . . . . . . . . . . . . . . . . . . .
Tareas y sus recursos asignados . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
134
135
136
137
138
139
140
11.1. Activar “Orı́genes desconocidos” en Ajustes del teléfono . . . . . . . . . . . 152
11.2. Instalador de la aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
11.3. Instalación finalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
12.1. Pantalla principal de la aplicación
12.2. Desplazamiento de un objeto . . .
12.3. Escalado de un objeto . . . . . .
12.4. Opciones del menú de aplicación .
12.5. Opciones de configuración . . . .
12.6. Salir de la aplicación . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
155
156
157
157
158
159
13.1. Main application screen . . . .
13.2. Moving an object . . . . . . . .
13.3. Scaling an object . . . . . . . .
13.4. Menu options of the application
13.5. Configuration options . . . . . .
13.6. Exit of the application . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
161
162
163
163
164
165
.
.
.
.
.
.
A.1. Sistema operativo Android . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Plataforma educativa basada en realidad aumentada y dispositivos móviles
XXI
Índice de cuadros
1.1. Comparativa entre las caracterı́sticas básicas ágiles y los rasgos observados
en el desarrollo de software móvil . . . . . . . . . . . . . . . . . . . . . . .
3.35. Especificación
3.36. Especificación
3.37. Especificación
3.38. Especificación
3.39. Especificación
3.40. Especificación
3.41. Especificación
3.42. Especificación
3.43. Especificación
3.44. Especificación
3.45. Especificación
3.46. Especificación
3.47. Especificación
de
de
de
de
de
de
de
de
de
de
de
de
de
Caso
Caso
Caso
Caso
Caso
Caso
Caso
Caso
Caso
Caso
Caso
Caso
Caso
de
de
de
de
de
de
de
de
de
de
de
de
de
Uso
Uso
Uso
Uso
Uso
Uso
Uso
Uso
Uso
Uso
Uso
Uso
Uso
1.1 .
1.2 .
1.3 .
1.4 .
1.5 .
1.6 .
1.7 .
1.8 .
1.9 .
1.10
1.11
1.12
1.13
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4.1. Validación de los requisitos comunes de los interfaces . . . . . . . . . . .
4.2. Validación de los requisitos funcionales generales . . . . . . . . . . . . . .
4.3. Validación de los requisitos funcionales de la aplicación para dispositivos
móviles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4. Validación de los requisitos funcionales del servidor web . . . . . . . . . .
4.5. Validación de los requisitos funcionales de los ficheros de configuración .
4.6. Validación de los requisitos no funcionales . . . . . . . . . . . . . . . . .
XXII
.
.
.
.
.
.
.
.
.
.
.
.
.
7
70
70
71
71
71
72
72
72
73
73
73
74
74
. 104
. 104
.
.
.
.
105
105
105
106
Capı́tulo 1
Introducción
El ser humano se ha distinguido por la capacidad de elaborar herramientas con el
fin de aumentar sus capacidades fı́sicas; desde los primeros cuchillos de piedra hasta los
modernos aviones de reacción, podemos decir que hemos recorrido un buen trecho en
aumentar las capacidades de nuestros sentidos a través de tejidos sintéticos, televisores,
perfumes, lentes y microscopios.
Mediante la tecnologı́a hemos logrado avances que, hasta hace poco, parecı́an de ficción,
tal es el caso de lo que hoy en dı́a conocemos como Realidad Aumentada[1]; que tiene como
finalidad superponer, al entorno real, la información que nos interesa visualizar.
La realidad aumentada se centra en la integración de elementos virtuales en el entorno
fı́sico que nos rodea. A diferencia de la realidad virtual, que utiliza dispositivos especiales
para interpretar las acciones del usuario, la realidad aumentada pretende que los dispositivos potencien sus actividades proporcionándoles en cada momento información no
intrusiva acerca de los objetos reales con los que interacciona y mediante un seguimiento
de las mismas.
1.1.
1.1.1.
Motivación del proyecto
En el contexto educativo
Durante años, los sistemas educativos optaron por una escuela más formal y garantizadora de que un mı́nimo es aprendido y de que todos aprenden lo mismo, eliminando
la riqueza de la diversidad en el aprendizaje en el proceso, pero asegurando (al menos
ası́ lo pretenden) un mı́nimo de competencia académica. Esto, desde el punto de vista de
muchos alumnos, suponı́a una educación “aburrida” y poco motivante.
Estudios de Jerome S. Bruner [2] resaltan el papel de la actividad como parte esencial de
todo proceso de aprendizaje. Bruner añade que la condición indispensable para aprender
una información de manera significativa, es tener la experiencia personal de descubrirla:
el descubrimiento fomenta el aprendizaje significativo.
1
1. Introducción
Atribuye una gran importancia a la actividad directa de los individuos sobre la realidad.
Por otro lado plantea que los profesores deberı́an variar sus estrategias metodológicas de
acuerdo al estado de evolución y desarrollo de los alumnos.
En este tipo de aprendizaje el alumno tiene una gran participación. El docente no
expone los contenidos de un modo acabado, su actividad se dirige a darles a conocer una
meta que ha de ser alcanzada y además de servir como mediador y guı́a para que los
alumnos sean los que recorran el camino y alcancen los objetivos propuestos.
En otras palabras, el aprendizaje por descubrimiento se produce cuando el docente le
presenta todas las herramientas necesarias al alumno para que este descubra por sı́ mismo
lo que se desea aprender.
Constituye un aprendizaje muy efectivo, pues cuando se lleva a cabo de modo idóneo,
asegura un conocimiento significativo y fomenta hábitos de investigación y rigor en los
individuos.
Afortunadamente, en los últimos años hemos presenciado una revolución en la tecnologı́a
que ha afectado irreversiblemente al desarrollo de las técnicas de exposición. Ahora es
posible incorporar a nuestro sistema tradicional y conservador técnicas y recursos que
hacen posible recuperar los criterios antes mencionados e incorporarlos al ejercicio de la
docencia de un modo que divierta y motive a los alumnos sin necesidad de perder ni un
ápice de rigor formal.
Mediante este proyecto y utilizando técnicas de realidad aumentada queremos contribuir
a ello.
La realidad aumentada puede ayudar a los estudiantes a reforzar y contextualizar mejor su aprendizaje. La creación de contenidos altamente interactivos apoya el proceso de
aprendizaje de diversas formas, entre ellas brindando soporte a la adquisición de conocimientos procedimentales que son esenciales para relacionar y entender los conceptos
aprendidos, mediante la interacción con los recursos que se encuentran alrededor del individuo, es decir, que hacen parte de la realidad.
1.1.2.
En otras áreas
Aunque el proyecto se centra en el ámbito educativo, se podrı́a haber aplicado a cualquier otro área como la arquitectura, cirugı́a, industria, publicidad, entretenimiento, decoración de interiores o exposiciones museı́sticas.
Centrándonos en las visitas a museos, el visitante obtiene la información procedente de
folletos, libros, paneles informativos, guı́as, etc. Este tipo de visitas no distingue entre los
diferentes tipos de usuarios, limitando a aquellos que deseen profundizar en algún aspecto
en concreto.
2
Plataforma educativa basada en realidad aumentada y dispositivos móviles
1.1. Motivación del proyecto
Como se ha presentado, la información que un visitante actualmente puede obtener en
una visita a un museo está muy dispersa, lo cual le influye negativamente. Serı́a ideal
disponer de un sistema que sea capaz de reunir todo el conocimiento, que esté disponible
durante la visita y además se adapte a las necesidades del visitante, garantizando ası́ la
plena satisfacción del mismo.
La mayorı́a de los museos no tienen el espacio y los recursos requeridos para exhibir
sus colecciones enteras. Además, la naturaleza y la fragilidad de algunos objetos obligan
al museo a no ponerlos a disposición del público. También, la interacción de los visitantes
con los artefactos exhibidos es muy limitada, por ejemplo no pueden mirar los artefactos
desde todos los ángulos, comparar los artefactos o estudiarlos en diversos contextos.
Hoy en dı́a, los visitantes de un museo o un centro de divulgación, sea cual sea su
disciplina, desean conocer, vivir, comprender, ver y tocar, aunque sea de forma simulada;
en definitiva pasarlo bien y, a lo mejor y en el mejor de los casos, aprender algo. Es necesario, si se desea lograr una comunicación efectiva, implicarlos, hacerles sentir partı́cipes.
Es básico no ahorrar esfuerzos en el intento de conseguir que el visitante establezca un
diálogo a su nivel con el propio contenido.
La utilización de estas nuevas tecnologı́as permite técnicas de exhibición diferente, participativa e interactiva, que permiten un contacto mayor con el público. El visitante logra
un papel activo en el proceso de difusión y le proporciona una herramienta que suple su
falta de conocimientos, invitándole a entablar el diálogo con las piezas o acontecimientos.
La participación activa proporciona al visitante una experiencia multisensorial.
Algunos exámenes recientes en Europa demuestran que cerca del 35 % de los museos ya
han comenzado a realizar una presentación 3D de los objetos. En muchos casos, éstos son
solamente proyectos en una etapa inicial, pero el número está creciendo rápidamente y es
evidente, que los museos comienzan a reconocer el potencial ofrecido por estas tecnologı́as.
1.1.3.
¿Qué se pretende con este proyecto?
En definitiva, con este proyecto se intenta crear una plataforma de soporte a realidad
aumentada para le representación y obtención de información extra de objetos 3D. Gracias
a ello aumentamos la interactividad de los usuarios entre ellos y con el propio entorno.
Se pretende crear un nuevo concepto de visita, que se adapte a las necesidades del
usuario, que proporcione mayor precisión en la información y que, gracias a una gran
interactividad, determine en todo momento la cantidad y calidad de información que
desee obtener, adaptándose, por tanto, a su propio perfil. El visitante verá reconstrucciones
virtuales de los cuadros u objetos donde se encuentre, permitiéndole entender mejor lo
que está observando.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3
1. Introducción
Ası́ se permitirá al usuario liberarse de la pasividad receptora e introducirse en una
dinámica activa y participativa. Con ello se estimulará el interés y el conocimiento con
una orientación interdisciplinar que permite un aprendizaje lúdico, frente a los modelos
tradicionales de educación que son considerados pasivos y aburridos.
Por lo tanto, gracias a esta plataforma se podrán realizar diferentes aplicaciones, simplemente con un cambio de información, ya que la base será la misma para todas.
Ası́, gracias a este proyecto el usuario de este modelo de navegación podrá:
Ver los objetos tridimensionales e interactuar con ellos.
Mostrar objetos bien en función de la posición en la que nos encontremos, o bien al
reconocer unos patrones o markers a través de la cámara
Escuchar información de cada objeto.
Se podrán manipular los objetos: aumentar y reducir el tamaño y trasladarlos en
todas las direcciones
Todo lo anterior, se ejecutará en dispositivos móviles
1.2.
1.2.1.
Metodologı́a empleada
Introducción
En muchas ocasiones, las metodologı́as tradicionales no nos sirven para afrontar un reto
que hoy en dı́a resulta fundamental: incorporar cambios con rapidez y en cualquier
fase del proyecto.
Las metodologı́as ágiles surgen para ser una alternativa a los procesos de desarrollo
tradicionales caracterizados por su total rigidez y muy dirigidos a la documentación que
se genera tras cada una de las actividades desarrolladas.
Su propósito es el de evitar que los proyectos se retrasen o fracasen y aumentar
la calidad del software que se desarrolla.
Dado que los cambios nunca van a dejar de existir, lo que necesitamos es ser capaces
de gestionar los proyectos de una forma más ágil.
Con ese objetivo, en los años 80 los japoneses Takeuchi y Nonaka estudiaron las prácticas
de empresas con buenos resultados de rapidez y flexibilidad en la producción: Xerox,
Canon, Honda, NEC, Epson, Brother, 3M o Hewlett-Packard. De ahı́ extrajeron la base
de la metodologı́a SCRUM que, aunque nació en el ámbito tecnológico, ha ido creciendo
hasta consolidarse en campos de actividad muy diferentes.
4
Plataforma educativa basada en realidad aumentada y dispositivos móviles
1.2. Metodologı́a empleada
1.2.2.
SCRUM
Scrum distingue entre dos elementos principales: actores y acciones.
Las acciones son las distintas fases del ciclo de desarrollo de Scrum y los actores son
las personas que ejecutarán las acciones.
En cuanto a los actores se pueden diferenciar básicamente cuatro roles:
Product Owner: es el responsable del proyecto por parte del cliente. Se encarga de
definir las prioridades de las tareas a realizar, evaluar el avance del proyecto desde
el punto de vista del cliente y, en general, servir de punto de comunicación entre el
cliente y el equipo de desarrollo.
Scrum Master: es la persona que se encarga de que se cumplan los principios de
la metodologı́a, ası́ como servir de guı́a para los integrantes del equipo a través de
reuniones.
Scrum Team: son el equipo de desarrollo del proyecto. Se encargan de implementar
las funciones requeridas por el Product Owner.
Usuarios o Clientes: son los usuarios finales de la aplicación. A partir del progreso
de la aplicación, pueden aportar nuevas ideas de modo que la aplicación final se
adapte a sus necesidades personales.
Por otro lado, las acciones de Scrum forman parte de un ciclo iterativo repetitivo, por
lo que el mecanismo y forma de trabajar que a continuación se indica, tiene como objetivo
minimizar el esfuerzo y maximizar el rendimiento en el desarrollo.
Las acciones fundamentales de Scrum son:
Product Backlog: es una lista de todas las tareas, funcionalidades o requerimientos
del proyecto. El Product Owner se encarga de priorizar estas tareas y de actualizar
la lista con los objetivos conseguidos.
Sprint Backlog: es un periodo de entre una y cuatro semanas en el cual se deben
realizar una serie de tareas sacadas del Product Backlog. La duración y las tareas a
realizar en el Sprint Backlog se deciden antes del mismo, y se mantienen invariables
hasta la finalización del mismo.
Daily Scrum Meeting: es una reunión diaria, entre los miembros del equipo,
que se realiza durante el tiempo que dura el Sprint. Debe tratarse de una reunión
informal y ágil, de no más de 30 minutos, y en la cual se le plantean las 3 siguientes
pregutnas a los miembros del equipo:
• ¿Qué has hecho desde la última reunión?
• ¿Qué vas a hacer hoy?
• ¿Qué obstáculos se te presentan? Tras la respuesta a esta pregunta debe actuar
el Scrum Master, que se encargará de eliminar dichos obstáculos.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
5
1. Introducción
Figura 1.1: Esquema del proceso de Scrum
Además de estas acciones, se pueden encontrar otras secundarias que ayudan a mantener
un avance ordenado del proyecto, ası́ como permitir que el cliente pueda ir viendo este
avance. Estas acciones son:
Sprint Planning Meeting: es una reunión que tiene por objetivo, planificar el
Sprint a partir del Product Backlog. El objetivo de esta reunión es la de mover las
tareas del Product Backlog al Sprint Backlog. En esta reunión, suelen participar el
Product Owner que es quien prioriza las tareas, el Scrum Master y el Scrum Team.
Del Sprint Planning Meeting, sale también el Sprint Goal, que es un pequeño
documento o una breve descripción que indica lo que el Sprint intetará alcanzar.
Sprint Review: se revisa en unas 2 horas como máximo el Sprint finalizado. Al
llegar a este punto, debemos tener “algo” que el Cliente o el Usuario pueda ver y
tocar. En esta reunión, suelen asistir el Product Owner, el Scrum Master, el Scrum
Team y personas que podrı́an estar involucradas en el proyecto. El Scrum Team es
quién muestra los avances realizados en el Sprint.
Sprint Retrospective: Se inicia al finalizar un Sprint Backlog y el Sprint Review.
El Product Owner revisará con el equipo los objetivos marcados inicialmente en
el Sprint Backlog concluido, se aplicarán los cambios y ajustes si son necesarios, y
se marcarán los aspectos positivos (para repetirlos) y los aspectos negativos (para
evitar que se repitan) del Sprint.
En el diagrama 1.1 se puede ver todo el proceso completo de la metodologı́a.
6
Plataforma educativa basada en realidad aumentada y dispositivos móviles
1.2. Metodologı́a empleada
1.2.3.
Adecuación de la metodologı́a al proyecto
Las metodologı́as ágiles poseen ciertas propiedades que las hacen totalmente aplicables
al dominio del software en los móviles.
En [3] se hace un análisis comparativo para probar la idoneidad de los métodos ágiles
sobre el desarrollo de software para móviles. Esas caracterı́sticas ideales y su motivación
en cada caso se muestran en la siguiente tabla:
Caracterı́sticas ágiles
Alta volatilidad
del entorno
Equipos de desarrollo pequeños
Cliente identificable
Motivación logı́stica
Debido a la alta frecuencia en el
cambio que sufren los requisitos,
tendremos menos necesidad de diseño y planificación inicial y mayor necesidad de desarrollos incrementales e iterativos
Capacidad de reacción más rápida, trabajo basado en la compartición de la información, menos
documentación
Desaparecen los malentendidos
Entornos
de
desarrollo orientados a objetos
Mayorı́a de las herramientas de
desarrollo ágil existen bajo plataformas orientadas a objetos
Software crı́tico
no asegurado
Los fallos no causan gran impacto, como la pérdida de vidas. Se
puede buscar mayor agilidad en el
desarrollo
Sistemas embebidos grandes requieren comunicación exhaustiva
y mecanismos de verificación
Software a nivel
de aplicación
Sistemas
queños
pe-
Menos necesidad de diseño inicial
Ciclos de desarrollo cortos
Propósito de realimentación rápida
En el caso del desarrollo para
plataformas móviles
Alta incertidumbre, entornos
dinámicos, cientos de nuevos
terminales cada año
La mayor parte de los proyectos
de desarrollo software para plataformas móviles se lleva a cabo en
microempresas y PyME.
Potencialmente, hay un número
ilimitado de usuarios finales, pero
los clientes son fáciles de identificar
Por ejemplo, Java y C++ se usan,
algunos problemas en herramientas como refactorizaciones o primeros tests
La mayorı́a del software es para entretenimiento. Los terminales no son fiables
Mientras los sistemas móviles son
complejos y altamente dependientes, las aplicaciones son muy
autónomas
Las aplicaciones, aunque variables en tamaño, no suelen superar
las 10.000 lı́neas de código
Periodos de desarrollo de 1 a 6
meses
Cuadro 1.1: Comparativa entre las caracterı́sticas básicas ágiles y los rasgos observados
en el desarrollo de software móvil
Plataforma educativa basada en realidad aumentada y dispositivos móviles
7
1. Introducción
Las metodologı́as de desarrollo tienen como objetivo convertir el desarrollo de software
en un proceso formal, con resultados predecibles, que permitan obtener un producto final
de alta calidad, que satisfaga las necesidades y expectativas del cliente, y a su vez, se
convierta en un proceso estándar en la organización y en los equipos de desarrollo.
Pero las metodologı́as están pensadas para aunar esfuerzos de un amplio grupo de
personas involucradas en el desarrollo.
Partiendo de ese punto se buscará la forma de aplicar la metodologı́a de forma que
verdaderamente repercuta beneficios teniendo presente que éstas nos ayudarán a gestionar
las necesidades del proyecto de forma estructurada, a predecir los posibles cambios, a
disminuir costes y retrasos, y en definitiva, a mejorar la calidad del software y evitar
rechazos de los clientes.
Para adaptarnos a Scrum en primer lugar tendremos que adoptar varios 4 roles. En un
trabajo como este en el que el grupo consta de una única persona, resulta difı́cil. Podemos
establecer algo como lo siguiente:
Product Owner: podrı́a ser el director del proyecto, ya que se encarga de controlar
que el trabajo va en la dirección adecuada.
Scrum Máster: este rol podrı́a dividirse entre el director del proyecto y el propio
proyectando, aunque la mayor parte del trabajo tendrá que ser realizado por este
último.
Scrum Team: el equipo de desarrollo se compondrá del proyectando que implementará las opciones requeridas.
Usuarios o Clientes: el destino final de un trabajo fin de grado es el Tribunal.
Podrı́a considerarse que éstos son los usuarios de nuestro “sistema”. También pueden
englobarse en este apartado los usuarios que hagan las pruebas de usabilidad del
producto.
En cuanto a las acciones podemos adoptar lo siguiente:
Product Backlog: no es más que una declaración de intenciones. Es una lista de
tareas que se priorizará por parte del Product Owner.
Sprint Backlog: se pueden realizar varios sprints backlogs a lo largo del proyecto.
Daily Scrum Meeting: es muy difı́cil que un director de proyecto esté dispuesto a
realizar la reunión diaria. Los miembros del tribunal serán desconocidos hasta que el
proyecto esté terminado. Entonces la reunión diaria se quedará en una introspección
por parte del proyectando en el que examinará lo realizado el último dı́a y lo que se
va a hacer en el dı́a actual.
8
Plataforma educativa basada en realidad aumentada y dispositivos móviles
1.3. Estructura del documento
1.2.4.
Seguimiento del proyecto
Para realizar el seguimiento del Trabajo Fin de Grado se ha creado una página web en la
que se suben las distintas versiones de la memoria, ası́ como videos mostrando la evolución
a lo largo del desarrollo. También se añaden ejemplos de ficheros de configuración.
Esta página web es http://tfg.ivanlorenzo.es/
Figura 1.2: Página web para seguimiento del proyecto
1.3.
Estructura del documento
Esta memoria se encuentra dividida en catorce capı́tulos y tres apéndices, los cuáles
describiré brevemente a continuación.
1.3.1.
Capı́tulo 1. Introducción
Este es el capı́tulo en el que nos encontramos. En él se realiza una descripción de cuál
ha sido la motivación del proyecto, para centrar las bases de éste. Por otro lado, se explica
Plataforma educativa basada en realidad aumentada y dispositivos móviles
9
1. Introducción
la metodologı́a elegida para el desarrollo de éste. Además, también se incorpora una breve
descripción del contenido de los diferentes capı́tulos de la memoria.
1.3.2.
Capı́tulo 2. Estado del arte
Es el punto de partida de cualquier proyecto. Antes de ponerse a desarrollar nada, es
necesario investigar el mercado y analizar las soluciones similares que ya están creadas,
es decir, asegurarse de no “inventar la rueda” sino mejorarla.
En este capı́tulo lo que se hace es un análisis tanto cualitativo, como cuantitativo
y comparativo de algunas de las aplicaciones de Realidad Aumentada existentes en el
mercado.
1.3.3.
Capı́tulo 3. Análisis
En el análisis lo que se pretende es definir el “qué” queremos desarrollar. En esta sección
se hace un estudio de cuáles son los requisitos que ha de satisfacer el proyecto.
Esta sección concluye con la definición de cuáles serán los casos de uso a los que la
aplicación ha de dar soporte.
1.3.4.
Capı́tulo 4. Diseño
En esta sección, a lo que se pretende responder es al “cómo” será implementada la
aplicación. Es aquı́ donde se definirá de forma detallada la estructura del nuevo sistema
y en la que se definirá el comportamiento del sistema ante las condiciones de entrada
preestablecidas.
Este capı́tulo concluye con un checklist que muestra en que puntos del diseño se han
satisfecho todos los requisitos del análisis.
1.3.5.
Capı́tulo 5. Modelo de datos
En este capı́tulo, se muestra primero de una manera gráfica y posteriormente de una
manera textual, el modelo de datos que utilizará nuestro sistema.
1.3.6.
Capı́tulo 6. Pruebas software
En esta sección, se encuentra la documentación de una de las etapas más importantes
del proceso de desarrollo de software. En ella se encuentra la documentación de las pruebas
de módulos y de las pruebas de conjunto.
10
Plataforma educativa basada en realidad aumentada y dispositivos móviles
1.3. Estructura del documento
1.3.7.
Capı́tulo 7. Pruebas de usabilidad
En los tiempos en los que vivimos, la usabilidad es un aspecto fundamental con el
que debe de cumplir cualquier aplicación que se preste. Para ello, se realizaron unas
exhaustivas pruebas de usabilidad, cuyo resultado se encuentra documentado en esta
sección.
1.3.8.
Capı́tulo 8. Presupuesto y Plan Temporal
Incluye un listado exhaustivo de las tareas requeridas para el desarrollo del proyecto, su
duración y su planificación temporal. Se muestran las tareas que se ejecutan en paralelo
en el diagrama correspondiente. Del mismo modo, se presupuesta el coste de ejecución del
material fungible y del inventariable, ası́ como posibles dietas por viajes.
1.3.9.
Capı́tulo 9. Manual del programador
Éste manual contiene una referencia rápida para que el programador que desee modificar
la aplicación en un futuro, sirva de ayuda para saber cómo se encuentran ordenadas las
clases y para que sirve cada una.
1.3.10.
Capı́tulo 10. Manual de internacionalización
Éste manual contiene una referencia rápida para que el programador que desee introducir un nuevo lenguaje a la aplicación en un futuro, sirva como guı́a para poder realizar
dicho cambio.
1.3.11.
Capı́tulo 11. Manual del instalador
En éste capı́tulo, lo que se pretende es dar una visión descriptiva del proceso de instalación de las diferentes herramientas necesarias para la explotación posterior del proyecto.
1.3.12.
Capı́tulo 12. Manual de usuario
En el manual de usuario, se muestra de una forma detallada el proceso para realizar
cualquier operación con nuestra herramienta.
1.3.13.
Capı́tulo 13. User’s manual
In the user’s manual, all the actions that can be done by the users with the tools will
be described one by one.
1.3.14.
Capı́tulo 14. Conclusiones y lı́neas de investigación futuras
Éste último capı́tulo recoge las conclusiones sacadas del proceso de elaboración del
proyecto. Además, se dejan abiertas una serie de vı́as de evolución del mismo.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
11
1. Introducción
1.3.15.
Apéndice A. Tecnologı́as
En este apéndice, se incluye una breve descripción de todas y cada una de las tecnologı́as
que han sido utilizadas durante el proceso de desarrollo de este proyecto.
1.3.16.
Apéndice B. Documentación
En éste apéndice se incluirá la documentación del código fuente.
1.3.17.
Apéndice C. Código Fuente
En éste apéndice se mostrarán los listados de código que forman la aplicación.
12
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 2
Estado del arte
Hoy en dı́a no existe ninguna plataforma de realidad aumentada para dispositivos
móviles totalmente configurable según las necesidades. Aunque si que, recientemente,
están apareciendo algunas aplicaciones que fomenten el aprendizaje mediante este tipo
de técnicas. También existen otro tipos de proyectos de realidad aumentada enfocados a
otras áreas y que tienen una base en común con lo que aquı́ se ofrece. A continuación
realizo un estudio significativo de los sistemas que se asemejan a lo que se propone con
esta plataforma.
2.1.
Introducción
El fin último de todo proceso de aprendizaje es adquirir nuevos conocimientos, habilidades o actitudes que produzcan algún cambio en nuestro modo de ser o de actuar.
Sin embargo, no todos los alumnos se sienten motivados y logran estos objetivos. No es
ninguna novedad que los alumnos no aprenden igual, ni a la misma velocidad. En un grupo
en que se empiece a estudiar una materia partiendo del mismo nivel, se producirá una
diferencia de conocimientos entre los estudiantes, en no mucho tiempo, pese a recibir las
mismas explicaciones y realizar las mismas actividades.
Para combatir esto, tratamos de aprovechar las ventajas de las nuevas tecnologı́as y
fomentar un método de aprendizaje más participativo, fácil, intuitivo y divertido.
A continuación trataré de clasificar y medir del modo más objetivo posible un grupo de
sistemas basados en realidad aumentada, para poder obtener una visión global de lo que
hay hasta el momento, sus ventajas, sus puntos fuertes, y sus posibles errores y puntos
a mejorar. Pero antes de todo esto veremos una pequeña introducción al concepto de
realidad aumentada, las diferencias con la realidad virtual y diversas tecnologı́as que se
emplean en la plataforma como por ejemplo Wi-fi o GPS.
13
2. Estado del arte
2.2.
2.2.1.
Realidad Aumentada
Introducción
La Realidad Aumentada (RA) es un paradigma de interacción que trata de reducir
las interacciones con el dispositivo utilizando la información del entorno como una entrada implı́cita. Con este estilo el usuario será capaz de interaccionar con el mundo real,
aumentado por la información sintética del ordenador.
La situación del usuario será automáticamente reconocida utilizando un amplio conjunto de métodos de reconocimiento como tiempo, posición o inspección de objetos.
Figura 2.1: Logotipo de Realidad Aumentada
Se trata, pues, de una nueva tecnologı́a que aumenta o mejora la visión que el usuario
tiene del mundo real con información adicional sintetizada mediante un modelo computerizado. Los usuarios pueden trabajar y examinar objetos 3D reales mientras reciben
información adicional sobre estos objetos o sobre la tarea que se está realizando.
Ası́, la RA permite al usuario permanecer en contacto con su entorno de trabajo, de
forma que su foco de atención esté en el mundo real. Explotando las habilidades visuales
y espaciales de los usuarios, la RA traslada información adicional a su mundo real, en vez
de introducirlos en el mundo virtual del ordenador o dispositivo.
De esta forma, el papel que juega el dispositivo es el de asistir y mejorar las relaciones e
interacciones entre las personas y el mundo real. Este paradigma de la interacción y visualización de información constituye el centro de una nueva y muy prometedora tecnologı́a
para muchas aplicaciones en multitud de sectores como medicina, arquitectura, diseño
interior, construcción, ingenierı́a civil, diseño de automóviles, mantenimiento mecánico
y reparación, etc. De todas formas, las aplicaciones reales para RA imponen una fuerte
demanda de tecnologı́a que todavı́a no se ha alcanzado.
14
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.2. Realidad Aumentada
Figura 2.2: Realidad Aumentada
En resumen, usando este paradigma un usuario será capaz de interactuar con el mundo
real, el cual está aumentado por la información sintetizada.
Existen diferentes métodos para colocar los objetos 3D. Los describimos a continuación:
2.2.2.
Usando markers
El marker file o mark es un patrón en forma de imagen que nos sirve para situar un
objeto 3D en una posición determinada.
Figura 2.3: Distintos markers
Esta imagen está compuesta por un marco negro y un sı́mbolo en su interior, de tamaño
y forma caracterı́stica. La idea es disponer de un software de reconocimiento de imágenes
para determinar qué objeto 3D se debe representar y su posición.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
15
2. Estado del arte
Este método tiene sus ventajas y sus inconvenientes. Como ventajas podemos señalar
que nos permite situar con mucha exactitud un objeto 3D ya que se debe posicionar justo
en el lugar la imagen.
Los principales inconvenientes es que la imagen debe estar impresa en algún lugar, y si
la imagen no se reconoce, ya sea porque esté oculta una parte o porque esté deteriorada,
no se mostrará nada.
Existen algunas librerı́as que muestran objetos representando mediante markers con
técnicas de RA como puedo ser ARToolkit o alguna de sus variantes.
Figura 2.4: Juego Invizimals de la PSP
Otro ejemplo serı́a videojuego que ha sacado la compañı́a PlayStation para su consola
PSP: Invizimals 1 (figura 2.4), el cual nos muestra algún personaje cuando enfocamos con
la cámara de la PSP el marcador que viene con el videojuego.
2.2.3.
Usando la posición GPS
Otra opción es situar los objetos en una determinada posición GPS. Al aproximarse a
esta posición se mostrará el objeto en el dispositivo.
Tiene la ventaja, en contraposición a los markers, de que no es necesario realizar ningún
reconomiento de imágenes.
Como inconvenientes hay que destacar la poca precisión de los GPS actuales. Ası́,
si hay varios objetos cercanos y nuestra posición varı́a un poco, podemos ver saltar los
objetos de un punto a otro.
1
Invizimals es un videojuego para PSP creado por la compañı́a Novarama y comercializado por Sony
en que se utiliza la innovación de la realidad aumentada, el juego incluye una plataforma en forma de
tarjeta sobre la que aparecerán los invizimals y una cámara que conecta con el puerto frontal de la PSP.
16
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.2. Realidad Aumentada
Un ejemplo de esta técnica serı́a la aplicación Layar.
2.2.4.
Diferencias entre realidad virtual y realidad aumentada
La Realidad Virtual (RV) ha sido un tema de gran interés en los últimos tiempos.
Menos atención se ha puesto en el campo de la RA a pesar de su similar potencial. En
los sistemas de RV el usuario está completamente inmerso en un mundo artificial y no
hay manera de interactuar con objetos del mundo real. En contraposición con la RV, en
la tecnologı́a de la RA los usuarios pueden interactuar con una mezcla de mundo real y
virtual de una forma natural.
Figura 2.5: Diferencia entre VR y AR
Ası́, la diferencia entre RV y RA está en el tratamiento que hacen del mundo real.
La RV sumerge al usuario dentro de un mundo virtual que reemplaza completamente al
mundo real exterior, mientras que la RA deja ver al usuario el mundo real a su alrededor
y aumenta la visión que éste tiene de su entorno mediante la superposición o composición
de los objetos 3D virtuales. Idealmente, esto darı́a al usuario la ilusión que los objetos de
los mundos real y virtual coexisten.
En definitiva, se podrı́a decir que los sistemas de RA llevan el ordenador al entorno
de trabajo real del usuario, mientras que los sistemas de RV intentan llevar el mundo
al interior del ordenador. O dicho de otro modo: la RA lleva la información dentro del
mundo real del usuario en vez de llevar al usuario dentro del mundo virtual del ordenador.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
17
2. Estado del arte
2.2.5.
ARToolKit y sus variantes
¿Qué es ArToolKit?
ArToolKit 2 es un conjunto de librerı́as para C/C++ que sirven para la creación de
aplicaciones de realidad aumentada. Para ello proporciona una serie de funciones para
la captura de vı́deo y para la búsqueda de ciertos patrones, en las imágenes capturadas,
mediante técnicas de visión por computador. También proporciona una serie de ejemplos
y utilidades de gran ayuda al programador que quiera realizar este tipo de aplicaciones.
¿Cómo funciona?
Algo muy importante en las aplicaciones de realidad aumentada, es la necesidad de
calcular el punto de vista de la cámara, para ası́ poder realizar las operaciones necesarias
sobre los objetos virtuales, para que estos se integren correctamente en el mundo real. Es
decir, si queremos mostrar objetos virtuales, de modo que el usuario realmente se crea
que existen en el mundo real, tendremos que realizar transformaciones sobre esos objetos
de modo que el usuario los vea (a través de la cámara o dispositivo de captura utilizado)
en la posición, tamaño, orientación e iluminación, en que esos objetos serı́an percibidos
por el usuario en el mundo real en caso de que realmente estuvieran allı́.
Para ello se utilizan unas plantillas de forma cuadrada, que se componen de un cuadrado
negro con un cuadrado blanco cuatro veces más pequeño en su centro, y un dibujo sencillo
en el interior del cuadrado blanco. La aplicación, utilizando las funciones y utilidades
proporcionadas por ARToolKit, será capaz de detectar una de estas plantillas en las
imágenes de vı́deo capturadas.
Figura 2.6: Funcionamiento de ARToolKit
Una vez detectada una plantilla en una imagen, estudiando la orientación, posición y
tamaño de la plantilla, la aplicación es capaz de calcular la posición y orientación relativa
2
18
ArToolKit: http://www.hitl.washington.edu/artoolkit
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.2. Realidad Aumentada
de la cámara respecto a la plantilla, y usando esta información podrá pasar a dibujar el
objeto correspondiente sobre la imagen capturada mediante librerias externas a ARToolKit (por ejemplo GLUT 3 y OpenGL 4 ), de modo que el objeto aparezca sobre la plantilla
en la posición, orientación y tamaño correspondiente al punto de vista de la cámara, siempre que el programador de la aplicación ası́ lo haya decidido, pues las posibilidades son
muchas y pudiera ser que una vez obtenida esta información el programador decidiese
utilizarla de otra forma, hacer otras operaciones distintas, etc.
Variantes
Con la proliferación de la realidad aumentada, han surgido distintas variantes de ARToolKit para distintas plataformas y lenguajes de programación. Algunas de ellas son las
siguientes:
ATOMIC Authoring Tool es un software Multi-plataforma para la creación de
aplicaciones de realidad aumentada, el cual es un Front end para la biblioteca ARToolkit. Fue Desarrollado para no-programadores, y permite crear rápidamente,
pequeñas y sencillas aplicaciones de Realidad Aumentada. Está licenciado bajo la
Licencia GNU GPL.
ATOMIC Web Authoring Tool es un projecto hijo de ATOMIC Authoring Tool
que permite la creación de aplicaciones de realidad aumentada para exportarlas a
cualquier sitio web. Es un Front end para la biblioteca Flartoolkit.Está licenciado
bajo la Licencia GNU GPL
OSGART es una combinacion de ARToolKit y OpenSceneGraph
ARTag es alternativa a ARToolKit que usa un procesamiento de imagen y de sı́mbolos digitales, mas complejo, para mayor fiabilidad y resistencia a la luz. Licenciado
solo para fines no-comerciales.
ARToolKitPlus es una version extendida de ARToolKit, recomendada solo para
usuarios experimentados y desarrolladores de software RA. No continua su desarrollo.
Studierstube Tracker es el sucesor de ARToolKitPlus, muchas caracterı́sticas,
pero ya no es libre.
Mixed Reality Toolkit (MRT) desarrollado por la University College London
3
GLUT Mecanismos (del inglés OpenGL Utility Toolkit) es una biblioteca de utilidades para
programas OpenGL que principalmente proporciona diversas funciones de entrada/salida con el sistema
operativo. Entre las funciones que ofrece se incluyen declaración y manejo de ventanas y la interacción
por medio de teclado y ratón. También posee rutinas para el dibujado de diversas primitivas geométricas
(tanto sólidas como en modo wireframe) que incluyen cubos, esferas y teteras.
4
OpenGL (Open Graphics Library) es una especificación estándar que define una API multilenguaje
y multiplataforma para escribir aplicaciones que produzcan gráficos 2D y 3D. La interfaz consiste en más
de 250 funciones diferentes que pueden usarse para dibujar escenas tridimensionales complejas a partir
de primitivas geométricas simples, tales como puntos, lı́neas y triángulos.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
19
2. Estado del arte
FLARToolKit es un port en ActionScript 3 de ARToolKit para Flash 9+.
NyARToolkit es una biblioteca de clase de ARToolkit desarrollada para maquinas
virtuales, particularmente aquellas con host Java, C# y Android.
ARDesktop es una biblioteca de clase de ARToolKit que crea interfaces de escritorio con controles y widgets.
2.3.
2.3.1.
Tecnologı́as empleadas
Comunicación
A la hora de elegir la tecnologı́a destinada a realizar la comunicación, nos decantaremos
por aquella que ofrezca un mayor alcance, una mayor tasa de transferencia de datos y una
mayor fiabilidad.
En la actualidad existen varias tecnologı́as que pueden utilizarse para la comunicación
en los dispositivos móviles. Las más destacadas son:
Wi-Fi (estándar 802.11b).
Telefonı́a móvil 3G y 4G.
WiMAX.
Bluetooth.
Wi-Fi (estándar 802.11b)
Hoy en dı́a las tecnologı́as para red de área local (LAN) inalámbrica han experimentando
un boom de implantación.
Numerosos proveedores de redes wireless han instalando sus sistemas en hoteles, cafés,
aeropuertos y otros edificios en los que se considera rentable una oferta de acceso a Internet de alta velocidad. Estas nuevas infraestructuras también soportan localización de
dispositivos móviles, por lo que las aplicaciones basadas en la posición para entornos de
área local resultan viables.
A continuación es necesario explicar de qué tipo de tecnologı́a se está hablando. Las
redes inalámbricas cubren áreas de hasta 75 metros en el interior de edificios, y de 300
metros en el exterior, ampliables a varios kilómetros mediante antenas. Están implementadas en un grupo de estándares, conocido como 802.11 que comprende varias modalidades,
cada una de ellas con unas caracterı́sticas de ancho de banda y alcance determinadas. La
modalidad más popular es la que se conoce como 802.11b, introducida en 1997. Opera
a una frecuencia de 2,4GHz, y su ı́ndice de transferencia de datos es de 11Mbps . Esta
tasa se ve ampliamente superada por el estándar 802.11a, que llega a ofrecer 55Mbps en
una frecuencia de funcionamiento de 5GHz. El problema es que dicha parte del espectro
20
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.3. Tecnologı́as empleadas
no está disponible en paı́ses como España, Italia, Portugal o Alemania, pues es de uso
restringido militar.
Resumiendo, los estándares actuales 802.11 y algunos relacionados con ellos son los
siguientes:
Figura 2.7: Estándares para redes de área local inalámbricas.
Figura 2.8: Estándares de Wireless LAN.
Telefonı́a móvil 3G y 4G
Los móviles han tenido diferentes versiones, evoluciones o generaciones en cuanto a
conexiones vı́a radio (Wireless) [4].
La primera generación, 1G, utilizaba conexiones analógicas y tenı́a graves problemas
de seguridad puesto que el mismo número podı́a estar en dos móviles distintos.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
21
2. Estado del arte
Los móviles 2G supondrı́an el cambio de tecnologı́a analógica a digital, además codifican y comprimen la señal pudiendo abarcar más llamadas. El 2G o GPRS incluye
varios protocolos o estándares de transmisión de datos. Entre ellos el usado por los paı́ses
europeos y americanos: el GSM.
Y por fin la tecnologı́a 3G o UMTS que utiliza la infraestructura del GSM pero posee
un ancho de banda mayor para poder enviar y recibir tanto señales de voz como de datos
a una velocidad de hasta 10Mb por segundo.
Nos interesa saber que todo esto se transforma en una señal de cobertura, calidad de
sonido y recepción mucho mejor que el convencional GPRS. De ahı́ que los proveedores
de teléfonos móviles ofrezcan nuevos servicios implementados en esta tecnologı́a.
En unos años llegará la siguiente tecnologı́a, denominada como 4G. Está basada completamente en el protocolo IP, siendo un sistema de sistemas y una red de redes, que se
alcanza gracias a la convergencia entre las redes de cables e inalámbricas.
La principal diferencia con las generaciones predecesoras será la capacidad para proveer velocidades de acceso mayores de 100 Mbps en movimiento y 1 Gbps en reposo,
manteniendo una calidad de servicio (QoS) de punta a punta de alta seguridad que permitirá ofrecer servicios de cualquier clase en cualquier momento, en cualquier lugar, con
el mı́nimo coste posible.
WiMAX
WiMax es una tecnologı́a inalámbrica para redes de área metropolitana (MAN). Su
alcance es de 50 km y ofrece una velocidad de transmisión de 70 Mbps. Las células
habituales tienen un alcance menor.
El primer estándar 802.16 operaba en bandas de 10 a 66 GHz y requerı́a que los dispositivos estuvieran en la misma lı́nea de visión. La nueva versión, el estándar 802.16a,
funciona en frecuencias que oscilan entre 2 y 11 GHz y, ahora, también permite la conexión entre dispositivos que no se encuentren en la misma lı́nea de visión. La aprobación
de esta norma en Europa está sufriendo retrasos debido a cuestiones relacionadas con el
uso de los espectros en las bandas de frecuencia de 2.8 y 3.4 GHz.
Esta tecnologı́a es compatible con usuarios móviles que viajen a velocidades de entre 20
y 100 km/h (e incluso a velocidades superiores). El estándar 802.16e ofrecerá a los usuarios
movilidad y portabilidad. La norma IEEE 802.16a y el estándar ETSI HiperMAN (Red
de área metropolitana de alto rendimiento) comparten las mismas capas fı́sicas (PHY) y
MAC. La norma 802.16 se ha diseñado para que sea compatible con el estándar europeo.
Esta tecnologı́a, creada como alternativa a las lı́neas ADSL y la conexión por cable, es
ideal para zonas rurales o áreas en las que el cableado resulta poco viable.
22
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.3. Tecnologı́as empleadas
Bluetooth
Bluetooth es una tecnologı́a diseñada para ofrecer conectividad a redes personales mediante un dispositivo móvil de forma económica. Permite conectar múltiples aparatos
Bluetooth: ordenadores portátiles, PDAs, teléfonos móviles, etc., y ofrece conexión a una
LAN o WAN a través de un punto de acceso. Bluetooth consigue un canal de comunicación
de 721 kbps en un radio de acción de 10 metros, ampliable hasta 100 metros por medio
de repetidores. La frecuencia que utiliza está entre 2,4 y 2,48 GHz, cuya gran ventaja es
que es un rango de frecuencias abierto. Además, y debido a su concepción de tecnologı́a
móvil y económica, tiene un consumo de energı́a bajo. Para transmitir a una distancia de
10 metros emplea 1mW de potencia, mientras que para llegar a los 100 utiliza 100mW.
La aplicación práctica de esta tecnologı́a es la posibilidad de montar redes inalámbricas
en lugares donde haya dificultad para hacerlo de forma convencional, aunque hoy en dı́a
para este propósito se oferta otra tecnologı́a, basada en los estándares del IEEE 802.11
que ofrece mayor ancho de banda y radio de conectividad. Por ello, Bluetooth se dirige
más a la comunicación de dispositivos.
2.3.2.
Posicionamiento
Actualmente existen dos grandes sistemas de localización por satélite, aunque en estos
momentos se están desarrollando nuevos sistemas:
Sistema de posicionamiento global
Global Orbiting Navigation Satellite System
GPS El más conocido es el GPS (Global Positioning System - Sistema de posicionamiento global), desarrollado por el Departamento de Defensa de los Estados Unidos.
GLONASS Otro sistema es el GLONASS (Global Orbiting Navigation Satellite System) es el sistema de Navegación via satélite desarrollado por los soviéticos.
Ambos sistemas fueron concebidos inicialmente para fines militares, aunque con el
paso del tiempo fueron utilizados también para usos civiles.
Estos sistemas proporcionan la posición (altitud, longitud, elevación y tiempo exacto)
a millones de usuarios alrededor del mundo a través de las señales que emiten sus satélites
y el cálculo de coordenadas desde tierra a través de receptores provistos con relojes muy
precisos.
Ambos emplean cada uno 24 satélites ubicados en una órbita media de alrededor de
20,000 Kms. Pero a pesar de ello, ambos sistemas son incompatibles e interoperables entre
sı́. Aunque GPS y GLONASS ofrecen sus señales a usuarios civiles, su operación sigue
estando bajo el control militar.
Por otro lado, estos sistemas de localización presentan los siguientes inconvenientes:
No hay garantia o cobertura de fiabilidad proveı́da por sus operadores (e.g. accidentes aereos)
Plataforma educativa basada en realidad aumentada y dispositivos móviles
23
2. Estado del arte
La fiabilidad es incierta en regiones de altas latitudes del norte de Europa
La precisión es moderada para aplicaciones que requieren una rápida determinación
de la posición
A los usuarios no se les informa inmediatamente de los errores que ocurren en el
sistema
Actualmente hablar de localización por satélite es hablar de GPS ya que ha sido el que
más auge ha tenido, pero es tan sólo uno de los muchos sistemas de localización existentes.
Galileo En 1999 nace un proyecto de origen europeo denominado Galileo. Se compone
de unos 30 satélites y estará listo hacia el año 2014. En principio se supone que tendrá compatibilidad con GPS. Tendrá un servicio gratuito de posición con una precisión de unos 5
metros. Existirá otro servicio de pago con mayor precisión.
Sistema de posicionamiento global (GPS)
El sistema de posicionamiento global o “GPS” de acuerdo a sus siglas en inglés (Global
Positioning System) constituye en estos momentos actuales el principal sistema de localización en entornos exteriores. Este sistema se basa en el uso de las comunicaciones vı́a
satélite: concretamente, el sistema consta de 21 satélites, los cuales orbitan alrededor de
la Tierra a una altura aproximada de 20.000 kilómetros.
Figura 2.9: El sistema de posicionamiento global es el principal sistema de localización en
entornos exteriores desarrollado hasta la fecha
Fue desarrollado por el Departamento de Defensa de los Estados Unidos con el objetivo
de poder determinar la posición de un punto cualquiera sobre la superficie terrestre en
tiempo real y sustituyó al anterior sistema, Transit. Este sistema se basaba en el empleo
de 6 satélites dispuestos en una órbita polar baja, a una altura de 1074 kilómetros. Esta
configuración permitı́a una cobertura mundial pero no constante, a diferencia del actual
sistema “GPS”.
24
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.3. Tecnologı́as empleadas
Cálculo de coordenadas tridimensionales
El sistema de posicionamiento global o “GPS” determina la posición de los agentes a
través del cálculo de coordenadas tridimensionales. Lógicamente, para llevar a cabo este
objetivo es necesario que los receptores capten adecuadamente las señales emitidas por
los satélites. Por otro lado, en el proceso del cálculo de la posición del receptor, basandose
en el cálculo de coordenadas tridimensionales serı́a necesario, en principio, la presencia de
tres satélites.
Sin embargo, el empleo de únicamente tres satélites lleva implı́cito el problema del
sincronismo: los tres satélites deben estar perfectamente sincronizados o de lo contrario las
coordenadas tridimensionales obtenidas no serán válidas. Para solucionar este problema,
la trigonometrı́a nos dice que es posible determinar la posición exacta de un objeto en el
espacio empleando cuatro satélites y ası́ eliminar las mediciones erróneas producidas por
problemas de sincronismo entre éstos.
Figura 2.10: Se emplean cuatro satélites para determinar las coordenadas tridimensionales
del receptor
Medición de la distancia
Para determinar la distancia a la que se encuentra el receptor de un satélite y ası́ llevar a
cabo el cálculo de las coordenadas tridimensionales de éste es necesario tener en cuenta la
fórmula fı́sica que permite determinar el espacio recorrido durante un perı́odo de tiempo
a velocidad constante:
e=v∗t
Puesto que los satélites empleados por el sistema GPS se basan en la emisión de ondas
electromagnéticas, sabemos que la velocidad de dichas ondas se corresponde a la velocidad
de la luz en el vacı́o, que denotamos por c y cuyo valor aproximado es de 300,000km/s.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
25
2. Estado del arte
De este modo vemos cómo de importante es la correcta sincronización de los dispositivos
implicados en el cálculo de las coordenadas, ya que una pequeña diferencia en la medición
del tiempo producirá errores muy graves en la posición de receptor debido al elevado valor
de la velocidad.
No obstante, surge otro problema a la hora de cálcular el tiempo que tardó el receptor
en recibir la señal del satélite ya que éste no sabe a priori en momento envió la señal
el satélite. Para solventar este problema es preciso que ambos dispositos se encuentren
perfectamente sincronizados mediante señales de reloj. Lógicamente, estas señales no pueden verse alteradas, tanto atrasadas como adelantadas, ni podrán estar condicionadas por
factores atmosféricos en el caso de los receptores, por lo que se opta por el empleo de
relojes atómicos, con un error de un segundo cada 30.000 años. En esencia, la solución
propuesta consiste en que ambos dispositos (satélite y receptor) generan una misma señal
en un mismo instante, el receptor capta la señal recibida del satélite y la diferencia de fase
entre las dos señales constiye el tiempo que tardó la señal en ser recibida por el receptor,
con lo que el problema queda perfectamente solventado.
Disponibilidad selectiva
El sistema de posicionamiento global, si bien consta de numerosas aplicaciones civiles,
surgió como un proyecto militar y por tanto, dicho sistema es susceptible de ser desactivado
o disminuida su precisión para evitar un uso militar del mismo en situaciones de conflico
bélico por parte de naciones no aliadas de Estados Unidos, como fue en el caso de la
primera guerra del Golfo.
Aplicaciones
Las principales aplicaciones del sistema de posicionamiento global se pueden dividir en:
Militares
Civiles
Militares
Las principales aplicaciones militares del sistema de posicionamiento global únicamente
pueden ser utilizadas por Estados Unidos o por naciones aliadas. Dichas aplicaciones se
basan en el empleo de armamento “inteligente” como por ejemplo, misiles de crucero.
Civiles
26
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.3. Tecnologı́as empleadas
Las aplicaciones civiles del sistema de posicionamiento global son muy amplias. Podemos destacar:
Sistemas de navegación, tanto terrestre como marı́tima o aérea
Topografı́a
Aplicaciones cientı́ficas
Aplicaciones lúdicas (deportes, acampadas, etcétera)
Ayuda a enfermos o discapacitados fı́sicos
Global Orbiting Navigation Satellite System o GLONASS
La contrapartida rusa al “GPS” lleva el nombre Global Navigation Satellite System
(GLONASS) y es operacional desde el 18 de Enero de 1996, dı́a en el que los 24 satélites
estaban operativos y en comunicación al mismo tiempo.
Diseño del sistema
Consta de una constelación de 24 satélites (21 en activo y 3 satélites de repuesto)
situados en tres planos orbitales con 8 satélites cada uno y siguiendo una órbita inclinada
de 64,8o con un radio de 25510 kilómetros. La constelación de “GLONASS” se mueve en
órbita alrededor de la tierra con una altitud de 19.100 kilómetros (algo más bajo que el
“GPS”) y tarda aproximadamente 11 horas y 15 minutos en completar una órbita.
Figura 2.11: El sistema GLONASS
Historia
Los satélites se han lanzado desde Tyuratam, Kazajstán. Los tres primeros fueron
colocados en órbita en octubre de 1982. El sistema fue pensado para ser funcional en
el año 1991, pero la constelación no fue terminada hasta diciembre de 1995 y comenzó a
ser operativo el 18 de enero de 1996. La situación económica de Rusia en los años 90
supuso que en abril de 2002 solo 8 satélites estuvieran completamente operativos. En el
2004, 11 satélites se encuentran en pleno funcionamiento y tras un acuerdo con el gobierno
indio se plantea tener de nuevo completamente operativo el sistema para el año 2007.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
27
2. Estado del arte
Figura 2.12: Satélites GLONASS
Compatibilidad con “GPS”
Actualmente, se ha conseguido construir receptores que puedan recibir señales pertenecientes a los dos grupos de satélites “GLONASS” y “GPS”.
Existe por supuesto un gran interés en incorporar los satélites “GLONASS” al sistema
debido al incremento potencial del número de satélites visibles simultáneamente. Logicamente, cuanto mayor es la cantidad de satélites disponibles al mismo tiempo, más rápidas,
mejor y más fiables son las técnicas de posicionamiento. Hoy en dı́a las expectativas se centran en un nuevo sistema de gran interés: el “GNSS” (Global Navigation Satellite System)
integrado por los dos grandes sistemas.
Para aplicaciones temporales ya están en el mercado receptores del sistema dual combinado.
Galileo
“Galileo” es un sistema global de navegación por satélite propuesto por la Unión Europea con apoyo de la Agencia Espacial Europea y un grupo de inversionistas privados. El
proyecto “Galileo” se propuso para fines civiles, y se espera que esté en funcionamiento
en el año 2014.
Es un sistema independiente de “GPS”, pero totalmente compatible con él.
Este nuevo sistema es una constelación formada por 30 satélites de nueva generación
(27 operativos y 3 en reserva, 6 más que el “GPS”) en tres órbitas circulares en torno a
la Tierra, que lanzan durante las 24 horas, con buen o mal tiempo, una señal de radio
codificada constante que es recogida y analizada por los receptores en tierra.
Dos centros de control “Galileo” se instalarán en Europa para seguir el funcionamiento
de los satélites y encargarse del sistema de navegación.
Los satélites “Galileo” serán capaces de entregar la señal hacia la Tierra con más potencia que la señal del sistema “GPS”, por eso la señal de “Galileo” es menos interferible.
28
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.3. Tecnologı́as empleadas
El gran reto del sistema “Galileo” será la sincronización entre los satélites y las terminales en la Tierra. “Galileo” empleará relojes atómicos de cesio en tierra, en contraste
con “GPS” que utiliza estos relojes en sus satélites. Los satélites de “Galileo” estarán
equipados con relojes de rubidio, que permiten precisiones en el orden de nanosegundos.
El cálculo orbital será llevado a cabo en tierra.
El diseño del sistema
El sistema por el que los receptores calcularán su posición a partir de los satélites es
relativamente simple. Cada uno de los satélites está situado de forma equidistante entre
sı́ formando una malla. Cuando un receptor localiza su señal puede medir la distancia
que los separa (debido a que una onda de radio viaja a la velocidad de la luz, unos 300
mil kilómetros por segundo, se puede deducir la distancia entre un emisor de radio y un
satélite a partir del tiempo que tarda la señal en recorrer esa distancia). De este modo,
basta con recibir la señal de tres satélites para saber el lugar exacto en el que se encuentra
el receptor.
Figura 2.13: Diagrama del sistema “Galileo”
Con una simple trigonometrı́a se puede encontrar una determinada posición terrestre.
Servicios
Plataforma educativa basada en realidad aumentada y dispositivos móviles
29
2. Estado del arte
El sistema Galileo tiene tres componentes que representan tres niveles de desempeño:
Global que ofrece cobertura mundial
Regional que da cobertura europea
Local, para aeropuertos o cobertura urbana.
Los tipos de servicios son:
Servicio con acceso abierto: servicio básico gratuito y abierto para todo el público.
Servicio con acceso controlado de nivel 1 (SAC 1): servicio con pago de tarifa con
acceso controlado para aplicaciones comerciales y aplicaciones profesionales que necesitan niveles de desempeño superior y una garantia de servicio.
Servicio con acceso controlado de nivel 2 (SAC 2): servicio con pago de tarifa con
acceso controlado para aplicaciones de alta seguridad.
Aplicaciones
“Galileo” revolucionará la administración del tráfico aéreo, mejorará la calidad y seguridad de este medio de transporte en regiones del mundo donde los sistemas existentes son
inadecuados, incrementará la precisión y control permitiendo la optimización del uso del
espacio aéreo. Esto ayudará en gran medida a los retardos en los vuelos. Además, los conductores de camiones y autos podrán evitar congestionamientos de tráfico al reducir sus
tiempos de viaje entre 15 y 25 %, ası́ como también se reducirá el consumo de combustible
y emisión de contaminantes.
Los servicios de emergencia llegaran más rápidamente a la escena para proveer asistencia
a la gente en peligro. Las compañı́as de transporte serán capaces de monitorear la posición
de sus vehı́culos o contenedores y la lucha contra el crimen será más efectiva al localizar
más rápida y eficientemente los vehı́culos robados. La lista de aplicaciones potenciales
crecerá dı́a a dı́a.
Conclusión
Aunque el proyecto “Galileo” está aún en sus fases iniciales, se esperan grandes beneficios para los usuarios cuando éste proyecto esté concluido en el 2014. “Galileo” será otra
opción para la determinación de la posición que en conjunto con los otros sistemas “GPS”
y ’“GLONASS” brindarán una gama de nuevos servicios y aplicaciones.
30
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.4. Magic Book
2.4.
Magic Book
2.4.1.
Introducción
Quizá una de las aplicaciones más conocidas de la Realidad Aumentada en la educación
sea el proyecto Magic Book [5] del grupo de investigación Human Interface Technology
Laboratory de Nueva Zelanda.
El alumno lee un libro real a través de un visualizador de mano y ve sobre las páginas
reales contenidos virtuales. De esta manera cuando el alumno ve una escena de Realidad
Aumentada que le gusta puede introducirse dentro de la escena y experimentarla en un
entorno virtual inmersivo.
Figura 2.14: MagicBook y su aplicación de enseñanza para volcanes
2.4.2.
Ventajas
Las principales ventajas son:
Es una aplicación educativa pionera en el uso de la realidad aumentada.
Se consiguen mostrar objetos y realizar explicaciones de forma interactiva.
2.4.3.
Inconvenientes
Los principales inconvenientes son:
Las aplicaciones son ad-hoc, es decir, están desarrolladas para un contexto especı́fico
y, por tanto, no son reutilizables ni adaptables.
No está pensada para dispositivos móviles.
No permite la manipulación de los objetos para poderlos ver desde otros ángulos.
Únicamente está pensada para realidad aumentada basada en markers, no en la
geoposición.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
31
2. Estado del arte
2.5.
2.5.1.
Proyecto ARiSE
Introducción
El propósito del proyecto ARiSE (Augmented Reality in School Environments) [6] tiene
como objetivo la integración de una plataforma de enseñanza de realidad aumentada en el
entorno cotidiano de los profesores y estudiantes, mostrando los contenidos audiovisuales
y multimedia en lı́nea con las necesidades identificadas en estas áreas.
Figura 2.15: Aplicación del proyecto ARiSE
Los estudiantes tendrán la posibilidad de interactuar en equipo con los objetos virtuales en un espacio virtual compartido proporcionado por un sistema de visualización de
realidad aumentada (figura 2.16) y de ese modo se llevará a cabo el aprendizaje práctico
en lugar de aprender a leer o escuchar.
Figura 2.16: Es necesario un equipamiento especial para su uso
32
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.6. LearnAR
2.5.2.
Ventajas
Las principales ventajas son:
Se permite a los alumnos interactuar con los objetos virtuales.
2.5.3.
Inconvenientes
Los principales inconvenientes son:
Es necesario un espacio virtual para poder visualizar y manipular los objetos.
No está pensada para dispositivos móviles.
Únicamente está pensada para realidad aumentada basada en markers, no en la
geoposición.
2.6.
2.6.1.
LearnAR
Introducción
LearnAR [7] es una herramienta educativa de realidad aumentada que permite combinar el mundo real con contenido virtual mediante una simple cámara digital de vı́deo o
web. Dispone de las siguientes aplicaciones:
Brazos y músculos. Los estudiantes pueden ver los huesos y músculos en su propio
brazo (figura 2.17).
Figura 2.17: Aplicación de Brazos y Músculos
Plataforma educativa basada en realidad aumentada y dispositivos móviles
33
2. Estado del arte
Quı́mica: Series de reactividad de los metales. Para experimentar con metales y
soluciones y averiguar las reacciones que acontecen cuando un metal se mezcla con
una solución.
Biologı́a - Órganos: Herramienta que permite mantener un marcador delante del
pecho del alumno y ver sus órganos internos (figura 2.18).
Figura 2.18: Aplicación de Biologı́a en la que se muestran los órganos
Fı́sica: Radiactividad. Experimentando con los marcadores radiactivos se puede ver
cómo afectan a un contador Geiger.
Matemáticas: Objetos en 3D. Se puede calcular el volumen o la superficie del área
de objetos en la pantalla del ordenador.
Religiones del mundo: Los 5 K del sijismo. Guru Gobind Singh, el último de los
diez gurús, propuso a todos los miembros de la hermandad de Sikhs propagar los
cinco K (artı́culos de fe) como un sı́mbolo para todos sus creyentes.
2.6.2.
Ventajas
Las principales ventajas son:
Dispone de varias aplicaciones en su plataforma web.
2.6.3.
Inconvenientes
Los principales inconvenientes son:
Tiene desarrolladas varias aplicaciones, pero no nos permite crear las nuestras ni
configurar las existentes.
34
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.7. SciMorph
No está pensada para dispositivos móviles.
Únicamente está pensada para realidad aumentada basada en markers, no en la
geoposición.
2.7.
2.7.1.
SciMorph
Introducción
Otra aplicación que utiliza técnicas de realidad aumentada aplicadas al ámbito de la
educación es Scimorph [8], un juego diseñado para estimular el debate entre los estudiantes y sus profesores acerca de cuestiones cientı́ficas tratadas en los escenarios del
juego.
Figura 2.19: SciMorph
Scimorph es un extraterrestre al que los alumnos pueden poner en diferentes entornos
para observar qué sucede.
2.7.2.
Ventajas
Las principales ventajas son:
Aplicación destinada exclusivamente al ámbito educativo.
2.7.3.
Inconvenientes
Los principales inconvenientes son:
Tiene desarrolladas varias aplicaciones, pero no nos permite crear las nuestras ni
configurar las existentes.
No está pensada para dispositivos móviles.
Únicamente está pensada para realidad aumentada basada en markers, no en la
geoposición.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
35
2. Estado del arte
2.8.
2.8.1.
ZooBurst
Introducción
ZooBurst [9] es una herramienta que nos permite crear libros en los que los personajes
pueden aparecer y dialogar en tres dimensiones.
Enfocado principalmente al público infantil tiene disponible la posibilidad de usar realidad aumentada para, usando la webcam, ofrecer experiencias diferentes a las que estamos
acostumbrados en este tipo de sitios. En realidad bastará imprimir un padrón para que,
al mostrarlo en la webcam, aparezca el libro abierto en nuestras manos.
Figura 2.20: ZooBurst
Las historias pueden incluirse en cualquier página web, aumentando la posibilidad de
divulgar nuestras creaciones.
2.8.2.
Ventajas
Las principales ventajas son:
Permite crear contenidos personalizados.
Sólo es necesario usar un navegador web con Flash.
2.8.3.
Inconvenientes
Los principales inconvenientes son:
36
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.9. ARSights
No está pensado para dispositivos móviles.
Únicamente está pensada para realidad aumentada basada en markers, no en la
geoposición.
2.9.
2.9.1.
ARSights
Introducción
ARSights [10] es una extensión de Google Earth en la que se podrán mostrar los edificios representados en la aplicación en tu propio entorno de realidad aumentada. Sólamente
es necesario instalarlo en el navegador, imprimir un patrón y una cámara web.
ARSights ha sido desarrollado por una compañı́a italiana de nombre Inglobe, especializada en el desarrollo de aplicaciones relacionadas tanto con la realidad aumentada como
con la virtual. El objetivo principal de ARSights es extender las ya de por sı́ excelentes
capacidades que posee Google Earth, aplicando tecnologı́a de realidad aumentada y haciéndola disponible para el usuario común de una forma bastante sencilla. El primer paso
será descargar e instalar la aplicación ARSights.
Figura 2.21: ARSights
Una vez instalado, es necesario imprimir una hoja llamada “marcador”. Esta hoja
servirá como base para los objetos (o mejor dicho, los edificios y construcciones destacadas)
que aparezcan en la realidad aumentada. La hoja no tiene ningún diseño complicado, sólo
Plataforma educativa basada en realidad aumentada y dispositivos móviles
37
2. Estado del arte
es necesaria para que la cámara web tenga un punto de referencia. El paso siguiente es
ir a la página oficial de ARSights e instalar la extensión para poder visualizar a Google
Earth en el navegador. Luego debes buscar el edificio que deseas ver, descargar el modelo,
y automáticamente ARSights se iniciará.
El programa tomará control de la cámara web, y cuando enfoques el marcador de forma
que pueda verse a través de la cámara, el edificio en cuestión aparecerá.
2.9.2.
Ventajas
Las principales ventajas son:
Utiliza los objetos tridimensionales de Google Earth, con lo que posee una gran base
de datos de éstos
2.9.3.
Inconvenientes
Los principales inconvenientes son:
No está pensado para dispositivos móviles.
No es posible visualizar otro tipo de objetos que no sean los de Google Earth.
Únicamente está pensada para realidad aumentada basada en markers, no en la
geoposición.
38
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.10. Wikitude
Una vez vistas las herramientas existentes en entornos educativos, mostraremos aplicaciones de realidad aumentada implantadas en entornos museı́sticos.
2.10.
Wikitude
2.10.1.
Introducción
Wikitude [11] es una aplicación que combina la base de datos geolocalizados de la
Wikipedia con el mundo real. En definitiva, es una guı́a para viajes y turismo basada en
sistemas de geoposicionamiento, brújula digital, sensores de orientación y acelerómetro,
mapas, video y contenidos informativos de la Wikipedia.
Figura 2.22: Wikitude
Se trata de una aplicación cuya propuesta de valor es ayudar a un viajero a planificar
su viaje o encontrar información relevante sobre un sitio concreto o zona geográfica.
Actualmente, Wikitude presenta información de 350.000 POI (puntos de interés) de todo
el mundo que pueden ser buscados mediante GPS o mediante su dirección. Estos puntos
de interés geográficos son mostrados en el móvil en una lista, sobre un mapa o mediante
un video geo-referenciado.
Wikitude utiliza 3 capas de información que se superponen en la pantalla del dispositivo
móvil. Primero aparece la información de Wikipedia, reseñas locales de Qype y por ultimo
información del propio Wikitude. Luego está la posibilidad de añadir notas a los lugares
marcados por ti y posteriormente puede ser visto por cualquier persona.
La prestación más interesante de Wikitude es la posibilidad de acceder a información
en tiempo real mediante realidad aumentada en la pantalla del móvil sobre los lugares
que se van viendo a medida que se recorre el sitio observado con la cámara. La aplicación
Wikitude ha sido desarrollada por la empresa Mobilizy de Austria.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
39
2. Estado del arte
Figura 2.23: Wikitude ofrece información en tiempo real del sitio observado
2.10.2.
Ventajas
Las principales ventajas son:
Se crean los puntos de interés a través de la web.
Está diseñada especı́ficamente para dispositivos móviles.
Es totalmente configurable, al poder visualizar y crear capas totalmente personalizadas.
Nos muestra información en función de nuestra posición geográfica.
2.10.3.
Inconvenientes
Los principales inconvenientes son:
No se muestran objetos en 3 dimensiones, sino que se muestra información en función
de la posición que tengamos.
No utiliza markers para mostrar la información, sino que sólo utiliza la posición
GPS.
40
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.11. Layar
2.11.
Layar
2.11.1.
Introducción
Layar [12] es un proyecto de navegador web basado en realidad aumentada para móviles, que emplea el hardware de los teléfonos de última generación, para ubicar espacialmente información de lo más variopinta en nuestra pantalla.
Figura 2.24: Layar
El concepto en sı́ es sencillo. Layar utiliza el GPS y el acelerómetro de nuestro terminal
para saber en qué lugar del globo nos encontramos en cada momento, y una vez situados,
busca la información que le pidamos en las distintas capas de mapas existentes: negocios,
inmobiliarias, wikipedia, hoteles, oficinas turı́sticas. . . Y usando la cámara, nos muestra
sobre la imagen real que está captando, en qué lugar o dirección se encuentran dichos
lugares.
Lo mejor de todo, es que el proyecto crece dı́a a dı́a, y ya también muestra imágenes
en 3D geolocalizadas con lo que posiblemente estemos ante el nacimiento del soporte
publicitario del futuro.
2.11.2.
Ventajas
Las principales ventajas son:
Se crean los puntos de interés a través de la web
Está diseñada especı́ficamente para dispositivos móviles.
Es totalmente configurable, al poder visualizar y crear capas totalmente personalizadas.
Nos muestra información en función de nuestra posición geográfica.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
41
2. Estado del arte
Figura 2.25: Layar muestra información de una capa
2.11.3.
Inconvenientes
Los principales inconvenientes son:
El único inconveniente es que no utiliza markers para mostrar la información, sino
que sólo utiliza la posición GPS.
2.12.
Museografı́a Virtual para el museo de sitio de
Calakmul
2.12.1.
Introducción
Calakmul [13], declarado Patrimonio de la Humanidad por UNESCO en Junio 27 del
2002, es una de las más importantes ciudades de la cultura Maya. Oculta por la selva e
inexplorada hasta la década de 1980, Calakmul esta destinada a permanecer parcialmente
cubierta por la vegetación de una de las más grandes y saludables reservas nacionales.
Sus inmensas estructuras de 50 metros de altura, se alzan por encima del nivel de
los árboles tropicales y sólo subiendo hasta sus cimas pueden verse las cúspides de las
demás pirámides de la ciudad. Dado que las plazas alrededor de cuales se encuentran
dispuestas las edificaciones, están cubiertas por enormes árboles, resulta muy difı́cil para
los visitantes el poder apreciar el diseño urbano y arquitectónico de Calakmul.
El sitio arqueológico se encuentra 65 Km dentro de la Biosfera de Calakmul y a tan
sólo 30 Km de la frontera con Guatemala. El aislamiento de Calakmul es parte de su
mayor atractivo y, sin embargo, motivo de que ninguna de las piezas encontradas en las
42
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.12. Museografı́a Virtual para el museo de sitio de Calakmul
Figura 2.26: Imagen aérea de Calakmul
17 tumbas descubiertas hasta el momento, puedan ser exhibidas en el sitio por motivos
de seguridad.
Figura 2.27: Situación de Calakmul, Campeche
La trascendencia histórica de Calakmul y la importancia de sus hallazgos arqueológicos,
merece de una adecuada exhibición en un museo de sitio, sin embargo dadas las circunstancias antes descritas, para poder mostrar sus invaluables máscaras, ofrendas funerarias,
su traza urbana y su continuo proceso arquitectónico a lo largo de 1200 años de historia,
se requiere de una amplia gama de reproducciones.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
43
2. Estado del arte
El hecho de que ningún objeto real pudiera mostrarse, originó la hipótesis de que el uso
de museografı́a virtual pudiese resolver la imposibilidad de exhibición material. De esta
forma se iniciaron reproducciones digitales con recursos de Realidad Virtual, Realidad
Aumentada y VRML interactivo.
Debido a las circunstancias descritas sobre el sitio arqueológico de Calakmul, se consideró la creación de una museografı́a virtual compuesta de:
1. Entornos de Realidad Virtual para ser recorridos en tiempo real, uno de ellos con
asistencia de un sistema inteligente,
2. Una instalación de Realidad Aumentada que permita sobreponer elementos virtuales
a un espacio fı́sico. La metáfora de superposición del pasado al presente servirá para
presentar a la más importante tumba encontrada en Calakmul, la tumba del Rey
“Garra de Jaguar”.
3. Vitrinas virtuales interactivas con reproducciones digitales tridimensionales que cubran las temáticas de:
Ubicación de Calakmul
Secuencias arquitectónicas
Tumbas y ritos funerarios
Subestructura IIc
Secuencia dinástica
Pintura Mural
Cerámica
4. Un portal de Realidad Virtual para despliegue en Internet que presente al Museo
Virtual de Calakmul a partir de la promoción en lı́nea de la Ciudad de Campeche,
capital del Estado y entrada aeroportuaria del turismo nacional e internacional.
A nosotros nos va a interesar el estudio del segundo punto: la visita mediante Realidad
Aumentada. Los objetos virtuales que utiliza, están realizados en VRML y su medio
de identificación de patrones es a través de webcams convencionales, por lo que hacer
aplicaciones hı́bridas puede ser factible.
Se realiza una novedosa instalación museográfica del entierro del gobernante “Garra
de Jaguar” en la cual se tendrá una réplica de parte de la cámara funeraria como fuera encontrada por el arqueólogo Carrasco en 1997. Esta parte representará el Presente
de la situación en torno a este importante hallazgo. Adicionalmente, los elementos que
desaparecieron tras 13 siglos serán añadidos digitalmente ante la mirada del visitante
de tal forma que pueda contemplar el aspecto que hipotéticamente tuvo la mortaja del
gobernante cuando fue enterrado en el siglo VIII.
44
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.13. Proyecto ARCO
Figura 2.28: Demo de Realidad Aumentada donde los objetos digitales quedan superpuestos al objeto real, en este caso, un libro en el que el usuario va pasando hojas.
2.12.2.
Ventajas
Las principales ventajas son:
Facilidad de uso de la herramienta, ya que las cámaras colocadas identificarán los
patrones y se mostrará el objecto correspondiente.
Se han añadido elementos que han desaparecido y que por lo tanto los usuarios no
podrı́an ver en su visita al museo.
2.12.3.
Inconvenientes
Los principales inconvenientes son:
La aplicación no está destinada a dispositivos móviles.
Los objetos 3D deberán ser diseñados a medida, no pudiendo importarse del trabajo
que anteriormente pudiese haber realizado algún diseñador en la creación de objetos
3DS.
Únicamente está pensada para realidad aumentada basada en markers, no en la
geoposición.
2.13.
Proyecto ARCO
2.13.1.
Introducción
ARCO [14] es un proyecto de investigación, financiado por la Unión Europea, dirigido
a desarrollar la tecnologı́a para que los museos creen sus exposiciones virtuales 3D en la
Web.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
45
2. Estado del arte
Las exposiciones virtuales son creadas convirtiendo los artefactos del museo a digital.
Entonces se transforman en las representaciones virtuales, que pueden ser X3D o modelos
o escenas del VRML. Estas representaciones virtuales junto con los objetos asociados
de los medios descritos con XML terminan en la exposición virtual. Se enfocó de tal
manera que el museo gestione la base de datos y junto con la tecnologı́a X-VRML para
asi permitir que los museos creen fácilmente estas exposiciones virtuales. X-VRML define
la disposición virtual de la exposición y permite actualizaciones dinámicas de la exposición
virtual simplemente cambiando el contenido de la base de datos.
El proyecto ARCO se basa en tres componentes princpales:
Producción de contenidos
Gestión de contenidos
Visualización
La producción de contenidos incluye todas las herramientas y técnicas usadas para crear
representaciones digitales de los artefactos del museo.El método de modelar depende de
las caracterı́sticas de los objetos. Los objetos con geometrı́a simple se pueden modelar con
ciertos sistemas como puede ser el caso de 3D Studio MAX.
Los objetos con geometrı́a compleja se modelan con un sistema digital de cámara fotográfica también desarrollado dentro del proyecto. Este sistema es capaz de la generación
automática de 3D.
Figura 2.29: Escena del proyecto ARCO
46
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.14. ARCHEOGUIDE
Los contenidos se almacen en una base de datos de ARCO y se manejan con una
aplicación de gestión de contenidos. Un diseñador puede crear fácilmente exposiciones
virtuales creando espacios de la exposición y asignando objetos culturales y plantillas de
visualización a los espacios.
La visualización de las representaciones digitales del museo son realizados por medio
de interfaces de realidad virtual y aumentada. Estas interfaces combinan la web con
exposiciones virtuales de realidad virtual o aumentada. La presentación mediante la web
permite que los usuarios busquen y que hojeen el contenido de la base de datos por
medio de una interfaz bien conocido, mientras que las exposiciones de VR y de AR dejan
examinar reconstrucciones virtuales de objetos 3D.
2.13.2.
Ventajas
Las principales ventajas son:
Los objetos complejos se modelan mediante técnicas digitales.
Un buen sistema de almacenamiento mediante la base de datos.
Combina realidad aumentada y virtual.
2.13.3.
Inconvenientes
Los principales inconvenientes son:
No es un proyecto destinado a la representación en dispositivos móviles.
Proyecto de investigación terminado que no se llegó a implantar.
Únicamente está pensada para realidad aumentada basada en markers, no en la
geoposición.
2.14.
ARCHEOGUIDE
2.14.1.
Introducción
ARCHEOGUIDE [15] construirá un sistema que proporciona nuevas maneras de acceso
a la información en los sitios de patrimonio cultural, una manera de uso fácil con el uso
de tecnologı́as de la información avanzadas incluyendo realidad aumentada, visualización
3D, computación móvil y una interacción multi-modal.
El sistema proporcionará las caracterı́sticas siguientes a los visitantes:
Información adaptada al contexto, es decir, dependiendo de la posición y orientación
del usuario.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
47
2. Estado del arte
Figura 2.30: Escena virtual del proyecto ARCHEOGUIDE
Ayudas personalizadas y temáticas dependiendo de los perfiles del visitante, en
función de la edad, las habilidades culturales y lingüı́sticas.
Visualización en 3D de artefactos que faltan o de partes reconstruidas de sitios
dañados.
ARCHEOGUIDE consiste en un servidor de información y un sistema de unidades
móviles que llevan los visitantes. Una red inalambrica permite que las unidades móviles
se comuniquen con el servidor de información.
El servidor del sitio mantiene una base de datos con toda la información referente al
lugar. El contenido se puede descargar a los móviles sobre la red inalámbrica. Además, el
servidor de información incorpora el software que permite la creación de nuevos contenidos
3D del lugar.
Las unidades móviles disponen de un montan dispositivo para la cabeza (HMD), una
cámara fotográfica, un micrófono, unos auriculares y un ordenador portátil. El portátil
se equipa de los dispositivos adecuados permitiendo que se comunique con el servidor de
información a través de la red.
2.14.2.
Ventajas
Las principales ventajas son:
La información es adaptada al contexto.
Información en función de los perfiles del visitante.
2.14.3.
Inconvenientes
Los principales inconvenientes son:
48
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.15. Ename 974
Figura 2.31: Sistema de ARCHEOGUIDE
Proyecto piloto, no se llegó a implantar.
La calidad de los objetos 3D no parece ser muy alta.
Las unidades móviles no son simples dispositivos, sino un equipo especial con un
artefacto para la cabeza, cámara de fotos y un portátil.
2.15.
Ename 974
2.15.1.
Introducción
El sitio arqueológico de Ename [16] (que cubre un área de 8 hectáreas) se ha desarrollado
como museo al aire libre, a la vez que las excavaciones continúan.
En Ename, como en otras excavaciones arqueológicas, los restos son raramente reconocibles por las personas no profesionales del sector. Las paredes fragmentadas o las ruinas
no pueden fascinar a la mayorı́a de los visitantes.
Entre los objetivos del equipo de Ename 974 está el conseguir dar al visitante una idea
de cómo era la vida en ese sitio con una nueva técnica. El sistema propuesto, que todavı́a
está en fase de desarrollo, permite que el visitante vea los edificios de los cuales solamente
se preservan las fundaciones y aprenda más sobre el sitio y la gente que vivı́an allı́.
El sistema consiste en una cámara de vı́deo, un sistema informático, dos monitores, y
una pantalla táctil. Un quiosco especialmente diseñado contiene el sistema y protege a
visitantes contra los elementos. La cámara de vı́deo se dirige hacia una sección particular
Plataforma educativa basada en realidad aumentada y dispositivos móviles
49
2. Estado del arte
Figura 2.32: Simulación del sistema para la visualización de reconstrucciones en Ename
de los restos arqueológicos (por ejemplo las paredes de la iglesia de Santo Salvador) y
transmite imágenes en tiempo real de esos restos a las pantallas del monitor en el quiosco.
Con la ayuda de una serie de iconos en la pantalla principal del monitor, los visitantes
puede ver las reconstrucciones virtuales de las arquitecturas que estaban situadas en ese
punto, sobrepuestas en las excavaciones.
2.15.2.
Ventajas
Las principales ventajas son:
La visualización de los objetos se muestra en una pantalla de gran tamaño.
Visualización en 3D de artefactos que faltan o de partes reconstruidas de sitios
dañados.
2.15.3.
Inconvenientes
Los principales inconvenientes son:
El usuario no puede manipular a su gusto los objetos reconstruidos.
Se debe disponer de un espacio perfectamente equipado para poder visualizar los
objetos y, por tanto, mucho más complejo que el simple uso de un dispositivo móvil.
Únicamente está pensada para realidad aumentada basada en markers, no en la
geoposición.
50
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.16. Dinosaurios en el Museo del Jurásico de Asturias
2.16.
Dinosaurios en el Museo del Jurásico de Asturias
2.16.1.
Introducción
El Museo del Jurásico de Asturias (MUJA) se encuentra situado en la Rasa de San
Telmo, entre las localidades asturianas de Colunga y Lastres (España).
Bajo la forma de una gran huella de dinosaurio, el Museo acoge una de las muestras
más completas y didácticas del mundo sobre estos fascinantes reptiles.
El edificio consta de tres grandes áreas, cada una de las cuales está dedicada a uno de
los periodos en los que se divide el Mesozoico: Triásico, Jurásico Y Cretácico.
A lo largo del recorrido por la exposición, se ofrece una amplia información sobre
distintos aspectos de la vida de los dinosaurios, grupo particular de reptiles terrestres
que aparecieron hace unos 230 millones de años, extinguiéndose, en su mayorı́a, hace 65
millones de años.
Gracias a la colaboración entre el diario Público, el Museo Jurásico de Asturias y el Gobierno del Principado de Asturias podemos utilizar una aplicación de realidad aumentada
para visualizar cuatro dinosaurios.
Figura 2.33: Dinosaurios en el MUJA
Se trata de una aplicación de escritorio que debemos instalar en el equipo. Se deben
imprimir unos códigos y a través de la webcam podremos visualizar los dinosaurios.
2.16.2.
Ventajas
Las principales ventajas son:
Permite la visualización de dinosaurios, lo que añade valor a la visita al museo.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
51
2. Estado del arte
2.16.3.
Inconvenientes
Los principales inconvenientes son:
Debe utilizarse un ordenador. Por tanto, no está pensada para dispositivos móviles.
Únicamente está pensada para realidad aumentada basada en markers, no en la
geoposición.
52
Plataforma educativa basada en realidad aumentada y dispositivos móviles
2.17. Conclusiones
2.17.
Conclusiones
A lo largo de estas páginas se ha realizado una revisión de la situación actual de proyectos que utilicen técnicas de realidad aumentada aplicados al campo educativo y otro
tipos de escenarios donde también ha demostrado su función pedagógica, como es el caso
de los museos.
En los entornos educativos han empeza a aceptar, aunque lentamente, la aplicación
de las tecnologı́as de la información y las comunicaciones en sus procesos didácticos, y
han comenzado a descubrir como pueden éstas participar de forma activa en el proceso
formativo que se lleva a cabo en las escuelas.
Además, las tecnologı́as de la información y las comunicaciones pueden contribuir al
fomento del turismo, y también a la conservación de los recursos que atraen a los visitantes. Existe una parte común en las cadenas de valor de ambos propósitos: las fases de
producción y gestión de contenidos resultan imprescindibles para fabricar productos de
calidad. En el caso de la salvaguarda del patrimonio cultural e histórico cobra especial
importancia la digitalización, existiendo en la actualidad iniciativas nacionales y europeas
destinadas a este propósito.
En muchos casos vistos, la aplicación de estas nuevas tecnologı́as hará indispensable el
uso de información virtual, que implicará la incorporación de nuevos sistemas electrónicos
y salas de proyección preparadas especı́ficamente para contener sistemas de interactividad
para grupos, cuya tecnologı́a, resulta muy costosa, de muy difı́cil operatividad y mantenimiento técnico.
Como se ha podido observar a través de la revisión que se ha ido ofreciendo, casi la
totalidad carecen de las posibilidades que ofrecen las nuevas tecnologı́as de la información. Si bien es verdad, que poco a poco se van introducciendo debido a la multitud de
aplicaciones que se pueden llegar a construir.
En ciertos escenarios concretos, como también hemos visto, han ido más allá y se han
propuesto desarrollar sistemas que permitan una mayor interacción del usuario con los
objetos. Para ello, en su mayorı́a utilizan técnicas ya vistas como es el caso de la realidad
aumentada.
Pero todos estos sistemas tienen una serie de inconvenientes que trataremos de solventar.
Muchos de los proyectos presentados están todavı́a en fase de análisis. Estudian cómo
podrı́a funcionar el sistema y las ventajas que este aportarı́a, pero no hay nada que los
usuarios finales puedan probar.
Otro problema visto en estos sistemas es que crear un escenario de objetos serı́a una
tarea que conllevarı́a una gran cantidad de recursos, ya que no podrı́an aprovechar trabajos
anteriormente realizados por parte de diseñadores gráficos.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
53
2. Estado del arte
Nuestra plataforma trata de solventar todos estos obstáculos ofreciendo una aplicación
final totalmente operativa, aprovechando posibles modelos de objetos 3D que el profesor
o el encargado de realizar la visita podrá configurar a su medida.
En definitva, la utilización de las tecnologı́as de la información y las comunicaciones
representa una manera diferente de satisfacer necesidades de siempre y puede colaborar
a mejorar la calidad en los entornos expositivos, bien sean educativos o museı́sticos.
Además, al estar orientadas mayoritariamente a un público joven, se encuentran más familiarizados con estas tecnologı́as y dispositivos. Ası́ se consigue transmitir conocimientos
bajo la fórmula educación + diversión.
Por todos estos motivos, administraciones públicas y los demás entes implicados han
de hacer un especial esfuerzo en conseguir que este tipo de servicios innovadores y diferenciadores sean una realidad.
54
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 3
Análisis
Las dos siguientes secciones se corresponden con la Especificación de Requisitos de
Software (ERS). Ésta se realiza según el estándar de IEEE 830 1 :
3.1.
3.1.1.
Descripción general del sistema
Perspectiva del producto
El sistema es un producto final totalmente independiente y autónomo. Se describe a
continuación qué vamos a hacer teniendo una serie de restricciones:
Interfaces del sistema
El proyecto es una nueva versión de mi Proyecto Fin de Carrera de la Ingenierı́a Técnica
en la que, para mostrar los objetos mediante técnicas de realidad aumentada, se utilizaba
un portátil y una cámara web, lo que restaba movilidad y flexibilidad al usuario.
Esta nueva versión se desarrolla para dispositivos móviles. En concreto para todos
aquellos con el sistema operativo Android.
Además, en esta versión nos aprovecharemos de las ventajas que ofrecen los dispositivos
móviles. En concreto, utilizaremos su receptor GPS para utilizar realidad aumentada en
exteriores. También, haremos uso de la cámara integrada del dispositivo para reconocer
patrones en interiores.
Por último, también se podrán crear exhibiciones o visitas personalizadas en las que
mostrar distintos objetos tridimensionales con su información asociada. Esta información
se almacenará en un servidor externo y el dispositivo móvil se conectará mediante su
conexión de datos.
1
“IEEE STANDARD 830-1998 - IEEE Recommended Practice for Software Requirements Specifications”: http://standards.ieee.org/findstds/standard/830-1998.html
55
3. Análisis
Interfaces de usuario
Parece claro que el futuro de las interfaces de usuario pasa por ser táctiles. Este será el
tipo de interfaces en nuestra aplicación para dispositivos móviles.
Se busca que sean fácilmente usables por cualquier tipo de usuario, independientemente
de sus conocimientos o destreza en el uso de las nuevas tecnologı́as.
Además, las interfaces serán sencillas, en el sentido de que la aplicación trata de añadir
información al mundo real y para ello simplemente reconoceremos patrones o haremos
uso de nuestra posición actual. Además, el usuario apenas tendrá necesidad de introducir
datos en el sistema que es una de las tareas más pesadas en las interfaces táctiles.
Interfaces hardware
Como hemos dicho, el sistema dispondrá de un servidor web de apoyo, en el que se
almacenará la información relativa a los objetos a mostrar. Por tanto, dividiremos esta
sección en dos partes:
Servidor: la aplicación web estará almacenada en un servidor que estará escuchando
por el puerto 80.
Cliente: como hemos dicho, el sistema es una aplicación para dispositivos móviles,
que dispongan de cámara, receptor GPS y conexión de datos.
Interfaces software
Servidor: para la aplicación web, tendremos un servidor web Apache 2.2.* o superior.
Cliente: el sistema operativo del dispositivo móvil deberá ser Android 2.2 o superior
Interfaces de comunicaciones
Se utiliza el protocolo TCP/IP para comunicar los clientes y el servidor. Además, como
hemos dicho, se utilizarán comunicaciones GPS.
Restricciones de memoria
En principio, no se prevé ninguna restricción de memoria ni en el servidor ni en los
clientes.
Funcionamientos
Se realizarán copias de seguridad del servidor semanalmente. Además, en cuanto a la
polı́tica de protección de datos, cumpliremos la LOPD2 .
2
Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal: http:
//noticias.juridicas.com/base_datos/Admin/lo15-1999.html
56
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3.1. Descripción general del sistema
Requisitos de adaptación
No hay ningún requisito de adaptación de los clientes para el servidor web.
3.1.2.
Funcionalidad del producto
Se pretende construir una plataforma para la representación de todo tipo de objetos
orientada al ámbito educativo basándose en el uso de la realidad aumentada. Esta plataforma tiene como objetivo el desarrollar un conjunto de tecnologı́as para ayudar a que la
labor docente ofrezca una visión más completa de lo que exhibe o ayude a comprender
mejor el tema expuesto.
Además de mostrar los objetos, se podrán observar desde distintos puntos. Otro objetivo
del sistema será la posibilidad de manipular los objetos transladándolos e incluso haciendo
zoom para acercarse o alejarse y ası́ poder ver hasta los más mı́nimos detalles.
Se crea un lenguaje muy sencillo, fácil de entender, y fácil de modificar, con el fin de
que posteriormente puedan realiar exposiciones de este estilo personas que no sepan nada
de programación. Ası́ se podrá añadir o modificar facilmente nuevos objetos a mostrar.
De cada objeto se podrá añadir un archivo de sonido, que podrá ser una descripción del
objeto; un archivo 3ds y su correspondiente textura.
La plataforma dispondrá de un sistema central que dispondrá de los catálogos y de las
distintas presentaciones a mostrar.
Se ha desarrollado un software para dispositivos móviles que se descarga del servidor
la presentación y los objetos mostrados.
A través de técnicas de reconocimiento de patrones se consiguen mostrar los objetos
tridimensionales, especialmente útil para espacios interiores.
Además, estas técnicas son combinadas con sistemas de geoposicionamiento en las que
se muestra información adaptada al contexto en función de la posición en la que se esté.
3.1.3.
Caracterı́sticas de los usuarios
El nivel de conocimiento de cada usuario final deberá de ser un nivel intermedio - bajo
tanto en el manejo común de computadores como en el manejo de dispositivos móviles,
dado que el modelo navegacional facilita el uso. Por otra parte, no podrı́a ser demasiado
complicado ya que la plataforma está inicialmente orientada a alumnos que no tienen
porqué estar especializados en ninguna de estas tecnologı́as.
Otro usuario de la plataforma, será el administrador de sistemas. Éste, si debe de estar
especializado y tener conocimientos informáticos.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
57
3. Análisis
Tipo de usuario
Formación
Habilidades
Actividades
Usuario de la aplicación
Ninguna formación especı́fica
Manejo básico de su terminal móvil
El usuario final arrancará la aplicación móvil y la utilizará para
recibir información añadida relativa a su entorno.
Tipo de usuario
Formación
Administrador del sistema
Conocimientos en administración de servidores y desarrollo de
aplicaciones web
Combinará conocimientos técnicos y una visión estratégica con
algo de creatividad. Debe conocer los estándares web, lenguajes
de programación, conocimientos de bases de datos y experiencia
en seguridad de aplicaciones web.
Mantener y mejor la aplicación web y todos los sistemas integrados.
Habilidades
Actividades
3.2.
Requisitos especı́ficos
3.2.1.
Requisitos comunes de los interfaces
A continuación describiremos todas las entradas y salidas del sistema:
Interfaces de usuario
Aquı́ escribiremos los requisitos del interfaz de usuario para el producto:
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
58
RC-IN-U. 1
Interfaz accesible e intuitiva
Requisito
El manejo de las funcionalidades de la aplicación debe ser lo más
intuitivo posible, de manera que sean muy claras las posibles
acciones a llevar a cabo y la manera de hacerlas.
Alta/Esencial
RC-IN-U. 2
La interfaz será táctil
Requisito
El dispositivo móvil dispondrá de una interfaz táctil. Por tanto, deberemos diseñar nuestra aplicación para que cumpla esta
caracterı́stica.
Alta/Esencial
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3.2. Requisitos especı́ficos
Interfaces de hardware
Se describirán las caracterı́sticas lógicas entre el producto y los componentes hardware
del sistema.
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
RC-IN-HW. 1
Será necesario el uso de la cámara del dispositivo móvil
Requisito
A la hora de aumentar la información del entorno mediante
técnicas de realidad aumentada, una de las opciones es reconocer patrones a través de la cámara.
Alta/Esencial
RC-IN-HW. 2
Será necesario disponer de acceso a internet desde el disposito
móvil
Requisito
Los datos de cada exhibición no estarán almacenados en la aplicación, sino que serán externos a ésta. Por tanto, necesitamos
un sistema de conexión para consultarlos y descargarlos.
Alta/Esencial
RC-IN-HW. 3
Será necesario el uso del GPS del dispositivo móvil
Requisito
Otra opción a la hora de aumentar la información del entorno
mediante técnicas de realidad aumentada, será obtener la posición actual mediante coordenadas GPS y en caso de encontrarse
cercano a algún objeto se mostrará información de él.
Alta/Esencial
Interfaces de software
Se describirán las integraciones de nuestro producto con otros productos de software:
Número
Nombre
Tipo
Descripción
Prioridad
RC-IN-SW. 1
Reconocimiento de patrones
Requisito
Para reconocer los patrones, se utilizará una librerı́a de realidad
aumentada como ARToolkit.
Media/Deseado
Plataforma educativa basada en realidad aumentada y dispositivos móviles
59
3. Análisis
Interfaces de comunicación
Se describirán las interfaces de comunicación con otros sistemas:
Número
Nombre
Tipo
Descripción
Prioridad
3.2.2.
RC-IN-COM. 1
Se utilizará el protocolo TCP/IP para comunicar los clientes y
el servidor
Restricción
La transferencia de los ficheros y de las rutas preconfiguradas se
harán a través del protocolo TCP/IP.
Media/Deseado
Requisitos funcionales
Requisitos funcionales generales
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
60
RF 1
Sistema enfocado al ámbito educativo
Requisito
La plataforma está pensada para ofrecer una ayuda a los docentes, aunque con dicha plataforma se podrán adaptar las aplicaciones a cualquier otro ámbito como por ejemplo: arquitectura,
medicina, arqueologı́a, museos, entrenamiento militar, industria
del entretenimiento, ingenierı́a, robótica, publicidad y un largo
etcétera.
Media/Deseado
RF 2
Independencia entre la plataforma y las aplicaciones
Requisito
Se ha creado por un lado la plataforma y por lo otro lado está el
conjunto de ficheros de configuración y de datos. Ası́ existe una
independencia entre la plataforma y las aplicaciones y por lo
tanto dispondremos de un sistema flexible.
Alta/Esencial
RF 3
Sistema flexible
Requisito
Todos los datos serán obtenidos de ficheros. Al haber independencia entre la plataforma y las aplicaciones le otorga una gran
flexibilidad.
Alta/Esencial
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3.2. Requisitos especı́ficos
Requisitos funcionales de la aplicación para dispositivos móviles
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
RF 4
Reconocimiento de patrones y visualización de objetos
Requisito
Se comparan unos determinados patrones con cada frame que
capta la cámara y si resulta que el patrón está contenido en el
frame, se muestra el objeto asignado a ese patrón. Esto tiene la
ventaja que se produce en tiempo real.
Alta/Esencial
RF 5
Geoposicionar información.
Requisito
Utilizando el GPS del dispositivo, nos mostrará la información
de los objetos cercanos a nuestra posición.
Alta/Esencial
RF 6
Se podrá asignar a cada patrón un determinado objeto, ası́ como
su textura y su descripción sonora mediante un fichero de audio.
Requisito
Cada patrón tendrá un objeto asignado con una serie de caracterı́sticas como la textura o la descripción modificable en los
ficheros de configuración.
Media/Deseado
RF 7
El audio explicativo de un objeto debe detenerse al reproducirse
otro posterior.
Requisito
Cuando se está reproduciendo un audio explicativo de un objeto,
y se detecta otro patrón cuyo objeto tenga asociado otro audio,
el primero deberá detenerse para dar paso al segundo.
Media/Deseado
RF 8
Desde el propio dispositivo se puede maniputar el objeto
Requisito
Se podrá manipular a gusto del usuario el objeto aumentándolo,
girándolo o moviéndolo de manera muy intuitiva.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
61
3. Análisis
Prioridad
Media/Deseado
Requisitos funcionales del servidor web
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
RF 9
Sitio web público
Requisito
El acceso al sitio web es público. Se mostrará la información a
cualquier visitante.
Baja/Opcional
RF 10
Configuración de rutas
Requisito
Se podrán generar rutas personalizadas que se dejarán a disposición del resto de usuarios en el que se configuren un conjunto
de objetos o monumentos distribuidos por la ciudad.
Baja/Opcional
Requisitos funcionales de los ficheros de configuración
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
62
RF 11
Deberán almacenar la definición de las exposiciones
Requisito
Los ficheros tendrán información tanto de los patrones de cada
visita, como de cada objeto cultural y sus respectivos recursos
multimedia.
Alta/Esencial
RF 12
Los ficheros de configuración utilizarán un lenguaje de marcado
Requisito
Para facilitar la lectura y transmisión, utilizaremos un lenguaje
de marcado, ya que permite un medio homogéneo, sencillo y
claro de representación e intercambio de la información.
Media/Deseado
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3.2. Requisitos especı́ficos
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
3.2.3.
RF 14
Para cada exposición habrá un conjunto de ficheros
Requisito
Cada exposición puede ser configurada a gusto del usuario y por
lo tanto sólo hay necesidad de cambiar los ficheros de configuración.
Media/Deseado
Requisitos de rendimiento
Número
Nombre
Tipo
Descripción
Prioridad
3.2.4.
RF 13
Ficheros de configuración divididos según el tipo de aspecto que
abarcan
Requisito
Cada fichero corresponde a un aspecto general de las exposiciones. Hay ficheros que definen los patrones y otros que definen
los objetos que poseen información.
Media/Deseado
RNF 1
Número de dispositivos conectados
Requisito
El número máximo de transacciones por segundo que soportará el sistema será de 50.
Media/Deseado
Restricciones de diseño
Número
Nombre
Tipo
Descripción
Prioridad
RNF 2
Aplicación móvil para Android
Restricción
La aplicación móvil será diseñada para el sistema operativo Android (de la versión 2.2 en adelante) y, por tanto, estará desarrollada en Java.
Alta/Esencial
Plataforma educativa basada en realidad aumentada y dispositivos móviles
63
3. Análisis
3.2.5.
Atributos del software del sistema
Seguridad
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
RNF 3
Las preferencias del usuario se almacenarán en su propio dispositivo
Requisito
A la hora de guardar las preferencias configuradas por el usuario,
éstas se guardarán en la tarjeta de memoria de su dispositivo
móvil.
Media/Deseado
RNF 4
Ficheros de log
Requisito
Se almacenarán en los servidores todos los eventos producidos
en un log.
Media/Deseado
Fiabilidad
Número
Nombre
Tipo
Descripción
Prioridad
RNF 5
Fiabilidad en los datos GPS
Requisito
Debido al carácter militar del sistema GPS, el Departamento de
Defensa de los EE. UU. se reservaba la posibilidad de incluir
un cierto grado de error aleatorio que podı́a variar de los 15 a
los 100 m. Se deberá tener un sistema alternativo que simule la
posición.
Baja/Opcional
Disponibilidad
Número
Nombre
Tipo
Descripción
Prioridad
64
RNF 6
Servidor disponible
Requisito
El servidor web debe mostrar, al menos, un 95 % de disponibilidad.
Alta/Esencial
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3.2. Requisitos especı́ficos
Número
Nombre
Tipo
Descripción
Prioridad
RNF 7
El sistema reconocerá que exista una conexión de datos activa
al iniciar la aplicación
Requisito
El sistema antes de arrancar comprobará la existencia y buen
funcionamiento de una conexión de datos en el dispositivo. En
caso de no encontrarla nos informará de tal suceso y no proseguirá la ejecución.
Alta/Esencial
Mantenibilidad
Número
Nombre
Tipo
Descripción
Prioridad
Número
Nombre
Tipo
Descripción
Prioridad
RNF 8
Configuración externa
Requisito
Al realizar un sistema flexible, las modificaciones o cambios de
funcionamiento se harán a través de los ficheros de configuración, sin necesidad de modificar la plataforma. Estas acciones
las realizará el desarrollador del sistema.
Media/Deseado
RNF 9
Nuevas versiones del producto
Requisito
La instalación de las actualizaciones del software para el dispositivo móvil debe realizarse de manera automática.
Media/Deseado
Portabilidad
Número
Nombre
Tipo
Descripción
Prioridad
RNF 10
Portabilidad de la aplicación móvil
Requisito
La aplicación móvil será totalmente dependiente del sistema operativo Android.
Media/Deseado
Plataforma educativa basada en realidad aumentada y dispositivos móviles
65
3. Análisis
3.2.6.
Otros requisitos
Número
Nombre
Tipo
Descripción
Prioridad
3.3.
3.3.1.
OR 1
Cumplimiento de la LOPD
Requisito
Se trata de un requisito legal que debe cumplir nuestro sitio web.
En este caso deberá cumplir la Ley Orgánica de Protección de
Datos.
Alta/Esencial
Descripción de los actores
Actor usuario del sistema
Tal y como se habı́a descrito en el apartado anterior, se distinguen dos roles de usuario:
Actor usuario de la aplicación.
Actor administrador del sistema.
Actor Usuario de la aplicación
Es un actor primario que podrá realizar cualquier operación disponible en la aplicación
del dispositivo móvil, dado que no hay opciones a las que no pueda acceder y tampoco
hay contraseñas con las que dar o quitar privilegios a los usuarios.
Principalmente, iniciará la aplicación y será el responsable de ir utilizando la cámara
para capturar patrones y que éstos se conviertan en información.
Actor Administrador del sistema
La función de este actor primario serı́a la de, simplemente, cargar en el servidor los
ficheros de configuración de cada exposición o zona. Además, podrá modificar las propiedades de cada patrón o de cada objeto. Esta labor se hará directamente sobre los ficheros
de configuración.
3.4.
Modelo de Casos de Uso
Mediante estos diagramas se representan gráficamente las acciones que el sistema debe
soportar para ser ejecutadas por cada actor.
3.4.1.
Lı́mites del sistema
A continuación se establecen los lı́mites del sistema, ası́ como los principales casos de
uso que posteriormente serán refinados en siguientes etapas del análisis.
66
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3.4. Modelo de Casos de Uso
Figura 3.1: Diagrama de casos generales de uso
3.4.2.
Casos de uso especı́ficos
Obtención de información adaptada al contexto
Refinando el caso de uso general Obtención de información adaptada al contexto del diagrama 3.1 (página 67), identificamos dos casos más especı́ficos como son:
Mostrar patrón y obtener información
Obtener geoposición e información asociada
Manipular objetos 3D
Refinando el caso de uso general Manipular objetos 3D del diagrama 3.1 (página
67), identificamos dos casos más especı́ficos como son:
Desplazar objeto
Escalar objeto
Plataforma educativa basada en realidad aumentada y dispositivos móviles
67
3. Análisis
Figura 3.2: Diagrama de casos de uso especı́fico para “Obtención de información adaptada
al contexto”
Figura 3.3: Diagrama de casos de uso especı́fico para “Manipular objetos 3D”
Configurar opciones de la aplicación
Refinando el caso de uso general Configurar opciones de la aplicación del diagrama 3.1 (página 67), identificamos dos casos más especı́ficos como son:
Configuración de patrones y posiciones
Configuración de objetos e información
68
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3.4. Modelo de Casos de Uso
Figura 3.4: Diagrama de casos de uso especı́fico para “Configurar opciones de la aplicación”
Publicar datos
Refinando el caso de uso general Publicar datos del diagrama 3.1 (página 67), identificamos varios casos más especı́ficos como son:
Figura 3.5: Diagrama de casos de uso especı́fico para “Publicar datos”
Publicar Patrones
Plataforma educativa basada en realidad aumentada y dispositivos móviles
69
3. Análisis
Publicar Objetos
Publicar Ficheros 3D
Publicar Texturas
Publicar Audios
3.5.
Especificación de Casos de Uso
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.1
Arrancar Aplicación Cliente
Antes de comenzar la navegación mediante el dispositivo
móvil será necesario arrancar la aplicación.
Actor Usuario de la aplicación
El usuario ejecutará la aplicación del cliente en su dispositivo móvil.
Cuadro 3.35: Especificación de Caso de Uso 1.1
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.2
Mostrar patrón y obtener información
Se mostrará el patrón a la cámara y se transformará en
un objeto informativo
Actor Usuario de la aplicación
El usuario mostrará el patrón en la cámara del dispositivo móvil y éste mediante reconocimiento de imágenes
determinará si coincide con algunos de los patrones almacenados. En caso afirmativo, se mostrará el objeto
informativo asociado a tal patrón.
Cuadro 3.36: Especificación de Caso de Uso 1.2
70
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3.5. Especificación de Casos de Uso
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.3
Obtener geoposición e información asociada
El dispositivo móvil dectará nuestra posición y, si hay
información asociada a ella, la mostrará
Actor Usuario de la aplicación
El usuario dispondrá en su dispositivo móvil de unas localizaciones en las que existen información contextual.
Si éste se aproxima a una de estas localizaciones, la información se mostrará.
Cuadro 3.37: Especificación de Caso de Uso 1.3
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.4
Desplazar Objeto
Una vez que se esté visualizando un objeto, el usuario
podrá interactuar con él. En este caso se podrá mover
de posición el objeto.
Actor Usuario de la aplicación
Al ser una interfaz táctil, el usuario deberá arrastrar el
dedo sobre la pantalla hacia la posición que desee que
se produzca el desplazamiento.
Cuadro 3.38: Especificación de Caso de Uso 1.4
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.5
Escalar Objeto
Una vez que se esté visualizando un objeto, el usuario
podrá interactuar con él. En este caso se podrá aumentar
o disminuir el zoom para ver más detalles del objeto.
Actor Usuario de la aplicación
El usuario podrá escalar un objeto. Para ello deberá hacer un gesto tı́pico en las interfaces táctiles: pinch zoom.
Si desea aumentar el tamaño del objeto, habrá que colocar dos dedos sobre la pantalla y sin levantarlos, alejarlos. En caso contrario, si los dedos se acercan, el objeto
disminuirá de tamaño.
Cuadro 3.39: Especificación de Caso de Uso 1.5
Plataforma educativa basada en realidad aumentada y dispositivos móviles
71
3. Análisis
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.6
Configuración de patrones y posiciones
Se podrá configurar los datos relativos a los markers y
a las posiciones GPS de la exposición.
Actor Usuario de la aplicación
Al iniciar la aplicación, se cargarán los datos relativos
a los markers y a las posiciones GPS. Estos datos nos
vendrán en un fichero de configuración especı́fico que
estará alojado en nuestro servidor. Pero también podremos establecer manualmente la ubicación de este fichero
y volver a cargar los datos.
Cuadro 3.40: Especificación de Caso de Uso 1.6
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.7
Configuración de objetos e información
Se podrá configurar los datos relativos a los objetos y a
la información contenida en éstos.
Actor Usuario de la aplicación
Al iniciar la aplicación, se cargarán los datos relativos a
los objetos y su información. Estos datos nos vendrán en
un fichero de configuración especı́fico que estará alojado
en nuestro servidor. Pero también podremos establecer
manualmente la ubicación de este fichero. Una vez seleccionado el fichero, los datos serán obtenidos y cargados
de nuevo en la aplicación.
Cuadro 3.41: Especificación de Caso de Uso 1.7
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.8
Salir Aplicación Cliente
Cuando se desee se puede cerrar la aplicación del cliente.
Actor Usuario de la aplicación
El usuario finalizará la aplicación cuando lo desee.
Cuadro 3.42: Especificación de Caso de Uso 1.8
72
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3.5. Especificación de Casos de Uso
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.9
Publicar Patrones
El administrador será el encargado de publicar la configuración de qué patrones reconocerá la aplicación,
ası́ como qué posiciones geográficas y los objetos asignados a estas.
Actor Administrador del sistema
Se creará un fichero de configuración para cada exposición. En este deberán figurar los patrones que el sistema reconocerá, ası́ como los objetos informativos que se
mostrarán para cada uno de ellos. Este fichero también
nos proporcionará las posiciones geográficas en las que
mostrar información.
Cuadro 3.43: Especificación de Caso de Uso 1.9
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.10
Publicar Objetos
El administrador será el encargado de publicar la información que contendrá cada uno de los objetos asociados
a un marker o una posición geográfica.
Actor Administrador del sistema
Se creará un fichero de configuración para los objetos
de cada exposición. En este deberán figurar cada uno
de los objetos informativos que se mostrarán. De cada
uno de ellos se podrá configurar una breve descripción,
un fichero 3D, una textura asociada a tal fichero y un
audio explicativo del mismo
Cuadro 3.44: Especificación de Caso de Uso 1.10
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.11
Publicar Ficheros 3D
El administrador publicará los ficheros 3D asociados a
cada objeto
Actor Administrador del sistema
Los objetos informativos podrán contener un fichero tridimensional. En el fichero de configuración se especificará dónde se encuentran estos objetos. El administrador será el encargado de publicarlos.
Cuadro 3.45: Especificación de Caso de Uso 1.11
Plataforma educativa basada en realidad aumentada y dispositivos móviles
73
3. Análisis
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.12
Publicar Texturas
El administrador publicará las texturas de los ficheros
3D asociadas a cada objeto
Actor Administrador del sistema
Los objetos informativos podrán contener un objeto tridimensional, y por tanto, una textura de estos. En el
fichero de configuración se especificará dónde se encuentran las texturas. El administrador será el encargado de
publicarlas.
Cuadro 3.46: Especificación de Caso de Uso 1.12
Caso de Uso
Objetivos
Actores
Proceso
Especificación de Casos de Uso
1.13
Publicar Audios
El administrador publicará los ficheros de audio asociados a cada objeto
Actor Administrador del sistema
Los objetos informativos podrán contener un oaudio
explicativo. En el fichero de configuración se especificará dónde se encuentran estos archivos de sonido. El
administrador será el encargado de publicarlos.
Cuadro 3.47: Especificación de Caso de Uso 1.13
3.6.
Análisis de Interfaces de Usuario
A continuación se describirán los modelos y prototipos de nuestra interfaz de usuario.
Ésta será táctil, con las ventajas e inconvenientes que ello supone.
Pese a que en nuestro caso en concreto, las interfaces de usuario son realmente sencillas,
esta etapa supone es de una gran importancia ya que nos puede ayudar a detectar defectos
tempranos respecto a la usabilidad de la aplicación.
3.6.1.
Descripción de la Interfaz
Para realizar la estas interfaces se utiliza una técnica de prototipado en papel unido a
un prototipado basado en bocetos:
Prototipado en papel: Esta técnica de prototipado de baja fidelidad se basa en
la utilización de materiales tan básicos como lápiz, el papel y las tijeras para la
creación de prototipos simples pero enormemente versátiles.
74
Plataforma educativa basada en realidad aumentada y dispositivos móviles
3.6. Análisis de Interfaces de Usuario
Consiste en dibujar en un papel, sin entrar en grandes detalles estéticos, las interfaces
que se van a probar y valorar. Esto permite que el usuario final interactúe con este
material simulando el funcionamiento del sistema.
Prototipado basado en bocetos: Los bocetos son maneras de representar “primeras ideas”. Se usan en la etapa más inicial del diseño, a menudo antes incluso de
determinar muchos aspectos del análisis de requisitos, con la finalidad de recoger las
primeras impresiones del espacio de trabajo de la interacción.
La clave de los bocetos es su velocidad de producción: Un boceto se realiza en unos
15 ó 20 segundos, de manera que se pueden generar gran cantidad de bocetos en
muy poco tiempo.
Ambas técnicas sirven de recogida de ideas iniciales y tienen la ventaja que son muy
rápidas de elaborar. Nosotros para realizarlas, hemos utilizado una herramienta para crear
mockups 3 .
Interfaz principal de la aplicación
La interfaz principal de la aplicación será muy limpia. Utilizaremos todo el espacio
disponible de la pantalla del dispositivo móvil para capturar imágenes provenientes de
la cámara. En este espacio, es en el que se mostrará la información que obtendremos de
nuestro entorno. Se puede ver un boceto en la figura 3.6
Figura 3.6: Boceto de la interfaz de la aplicación móvil
3
Mockup: un modelo a escala o tamaño completo de un diseño, utilizado para ser mostrado y evaluado. Por tanto, todo error detectado aquı́ será más fácil y, sobre todo, más barato de subsanar que en el
desarrollo final.
Existen herramientas para realizar estos bocetos. Estas herramientas disponen de un conjunto de elementos o controles como cajas de texto, combo-boxes, imágenes. . . con los que realizar los diseños.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
75
3. Análisis
Interfaz de la pantalla de configuración
Seleccionando el menú del teléfono nos aparecen las opciones. Nuestra única opción
será entrar al menú de Configuración tal y como se observa en la figura 3.7
Figura 3.7: Boceto de la interfaz al mostrar las opciones
Una vez seleccionado, nos aparecerá la ventana de configuración para establecer la
ubicación de los ficheros de configuración antes explicados, tal y como se observa en la
figura 3.8
Figura 3.8: Boceto de la interfaz de configuración
76
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 4
Diseño
Puesto que el sistema a desarrollar, en cuanto a funcionalidad, proporciona servicios
bien diferenciados, y para clarificar el estudio de las mismas, lo descompondremos en una
serie de módulos, independientes unos de otros.
La ventaja de la descomposición del sistema en módulos, reside en que al existir la
independencia de unos con respecto a otros, se puede modificar o eliminar uno de ellos,
sin que el resto del sistema se vea afectado, incluso se pueden crear nuevos módulos
independientes y asociarlos al sistema sin trastorno alguno a los demás módulos.
Figura 4.1: Descomposición modular del sistema
Los módulos en los que se divide el sistema son los siguientes:
Módulo de Carga de Datos.
Módulo de Localización.
Módulo de Renderización o Parser de objetos 3D.
77
4. Diseño
Módulo de Sonido.
Módulo de Visualización de información.
En la figura 4.1 se puede observar la anterior estructura de una forma gráfica.
4.1.
4.1.1.
Descripción de los módulos del sistema
Módulo de Carga de Datos
Este módulo es el encargado de todo el proceso de arranque y validación de los ficheros
de configuración para el buen funcionamiento de la aplicación, ası́ como el almacenamiento
de la información de cada patrón, posición GPS y de los objetos asignados a tales patrones
o posiciones.
Existen varios ficheros de configuración para la exposición. Cada uno de ellos está destinado a almacenar los datos de una parte de ella. Hacemos esta división de ficheros para
que nos resulte más rápido a nosotros y a la persona encargada de crear o modificar la
exposición.
Se encarga de analizar los documentos de tal forma que debe comprobar tanto su sintaxis
y semántica, como que los recursos incluidos existan. Para ello utilizaremos la tecnologı́a
XML[17] por varios motivos:
Existen herramientas ampliamente contrastadas que nos ayudarán en el proceso de
validación de la exposición.
También existen herramientas que nos facilitarán mucho el acceso a los datos.
Definiremos un lenguaje para crear los patrones o localizaciones y asignarles un
objeto a través de los XML Schemas (XSD) 1 [18] de XML. A cada fichero XML, le
corresponde un XSD. Gracias a esto nos va a ser muy sencillo ir añadiéndole riqueza
al lenguaje.
En un entorno Java es mucho más sencillo utilizar herramientas XML.
XML es algo totalmente distinto a un lenguaje de programación, podremos decir
que con esto diseñamos nuestra aplicación.
De todas las formas de crear una exposición por un usuario que no tenga nociones de
programación, XML es claramente la tecnologı́a que mejor proporciona ese soporte.
1
Existen varios métodos de validación de los ficheros XML. Los métodos más usados son la DTD de
XML versión 1.0, el XML Schema de W3C, RELAX NG de Oasis y Schematron de la Academia
Sinica Computing Centre.
78
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.1. Descripción de los módulos del sistema
Dentro de las tecnologı́as XML vamos a utilizar dos: una para analizar y validar el
documento que va a ser una API J2EE, JAXP que nos proporciona una implementación
del analizador SAX, y otra para acceder a su contenido el DOM (Modelo de objeto de
Documento) del consorcio W3C que nos proporciona un completo estándar para acceder
a los datos del documento una vez validado.
4.1.2.
Módulo de Localización
Este módulo es el que se encarga de obtener la localización del dispositivo y comprobar
si existe alguna información que deba ser mostrada para nuestra posición.
Para obtener nuestra posición utilizaremos el servicio LOCATION SERVICE que ofrece
Android [19].
Para ello buscaremos el mejor proveedor para que nos ofrezca esta información o el que
esté disponible. Los proveedores serán o bien mediante el GPS del dispositivo o a través
de la red. Mediante cualquiera de estos dos sistemas detectará nuestra posición y nos
informará sobre nuestra latitud y longitud.
Ası́, cada cierto periodo de tiempo comprobaremos si nuestra posición ha cambiado. En
caso de que fuese ası́, obtendremos la nuevas posición y el sistema comprobará si existe en
los ficheros de configuración alguna posición cercana a la nuestra para, entonces, mostrar
la información asociada a esa posición.
Y ası́ sucesivamente cada cierta cantidad de tiempo.
En caso de hallar información asociada a esa posición se mostrará en el dispositivo
hasta que finalice la exposición auditiva o, en caso de que no disponga de ella, durante
un breve periodo de tiempo.
4.1.3.
Módulo de Renderización o Parser de objetos 3D
Este módulo es el encargado del proceso de renderización de objetos 3D.
En términos generales, un gráfico 3D difiere de uno 2D principalmente por la forma en
que ha sido generado. Este tipo de gráficos se origina mediante un proceso de cálculos
matemáticos sobre entidades geométricas tridimensionales producidas en un ordenador, y
cuyo propósito es conseguir una proyección visual en dos dimensiones para ser mostrada
en una pantalla o impresa en papel.
En general, el arte de los gráficos 3D es similar a la escultura o la fotografı́a, mientras
que el arte de los gráficos 2D es análogo a la pintura. En los programas de gráficos por
computadora esta distinción es a veces difusa: algunas aplicaciones 2D utilizan técnicas
3D para alcanzar ciertos efectos como iluminación, mientras que algunas aplicaciones 3D
primarias hacen uso de técnicas 2D.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
79
4. Diseño
La palabra renderización es una adaptación al castellano del vocablo inglés rendering
y que define un proceso de cálculo complejo desarrollado por un ordenador destinado a
generar una imagen 2D a partir de una escena 3D. La traducción más fidedigna es “interpretación”, aunque se suele usar el término inglés. Ası́ podrı́a decirse que en el proceso
de renderización, la computadora “interpreta” la escena 3D y la plasma en una imagen
2D. También se emplean coloquialmente los términos “renderizar ” y “renderizado”.
El proceso de rénder necesita una gran capacidad de cálculo, pues requiere simular
gran cantidad de procesos fı́sicos complejos. La capacidad de cálculo se ha incrementado
rápidamente a través de los años, permitiendo un grado superior de realismo en los rénders.
Estudios de cine que producen animaciones generadas por ordenador hacen uso, en general,
de lo que se conoce como render farm (granja de rénder) para acelerar la producción de
fotogramas.
En esta plataforma se utiliza una API especializada para facilitar los procesos en todas
las etapas de la generación de gráficos. En este caso se utiliza min3d [20] que es una librerı́a
basada en OpenGL[21] para Android.
En la aplicación habrá distintos tipos de formatos 3d soportados. Se podrá representar
tanto archivos .3ds, .obj y .md2.
En función del tipo de objetos que vayamos a mostrar, se utilizará un parser u otro.
4.1.4.
Módulo de Sonido
Este módulo es el encargado del proceso de decodificación y reproducción de los ficheros
de audio de la plataforma. La reproducción de audio se producirá cuando se visualice un
objeto y siempre que éste lo tenga asociado.
Para la reproducción de los audios se utiliza la librerı́a MediaPlayer [22] de Android.
Pero hemos tenido que adaptarlo para poder utilizarlo en el sistema.
Este módulo permite que cuando se esté reproducciendo un archivo debido a la visualización de un objeto y en el caso que se visualice otro objeto sin haber finalizado la
reproducción de ese fichero de audio, se detenga la reproducción y se reproduzca un nuevo
audio si procede.
Además, cuando se esté mostrando información basada en la localización, el sistema
observará cuando finaliza el audio para volver a utilizar los markers y reconocer patrones.
4.1.5.
Módulo de Visualización de información
Éste, es el módulo que se encargará de visualizar y representar toda la información
virtual superpuesta al mundo real en el que nos encontramos.
80
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.1. Descripción de los módulos del sistema
Se mostrará la información de los objetos 3D con su correspondiente textura en el
dispositivo móvil. Además, en caso de disponer de fichero de audio, se reproducirá.
Para utilizar el proceso de reconocimiento de imágenes se utiliza la librerı́a NyARToolkit [23], que es una librerı́a de realidad aumentada escrita en Java y especı́fica para
dispositivos móviles.
La aplicación permite manipular los objetos, es decir, moverlos virtualmente por la
pantalla y escalarlo para verlos con más detalle.
Por último, este módulo también se encargará de mostrar las preferencias de la aplicación, en las que podremos modificar la dirección donde se encuentran los ficheros de
configuración de la aplicación.
4.1.6.
Internacionalización de la aplicación
La internacionalización es el proceso de diseñar una aplicación para que pueda ser
adaptada a diferentes idiomas o regiones, sin necesidad de cambios de ingenierı́a.
Permite que las aplicaciones admitan las codificaciones de datos necesarias para procesar
información multilingüe, ası́ como los formatos de moneda, calendarios, etc.
En muchas ocasiones, por no decir la mayorı́a de veces, que nos compramos un software,
que además es el mejor de su clase, y después de comprarlo nos encontramos algo como:
Figura 4.2: Ejemplo de programa en otro idioma
Por esto, en este subsistema nos marcamos una serie de objetivos, que pueden ser
generales para más aplicaciones:
Plataforma educativa basada en realidad aumentada y dispositivos móviles
81
4. Diseño
Asegurar la completa funcionalidad en todos los dispositivos de la plataforma, en
todos los escenarios e idiomas.
Reducir el esfuerzo, y el coste de la localización, acelerando el lanzamiento al mercado.
Reducir el coste de la asistencia internacional y mejorar la satisfacción del cliente.
Junto a la internacionalización, va ligado el concepto de Localización, que es el proceso
de adaptar software para una región o idioma, añadiendo componentes especı́ficos de la
localidad y traduciendo el texto.
Durante la internacionalización, los textos como las etiquetas de los componentes GUI
y los mensajes de error, son almacenados fuera del código fuente, para ser recuperados
en tiempo de ejecución. Y como el texto no está dentro del código fuente, el programa no
requiere ninguna modificación. Ası́ el mismo ejecutable funcionará en cualquier parte del
mundo.
Algunas caracterı́sticas de nuestra aplicación desde el punto de vista de la internacionalización son:
El texto mostrado por el programa está en el idioma nativo del usuario final.
Los elementos textuales, al estar almacenados fuera del código fuente, son recuperados de forma dinámica.
Y las ventajas que presenta esta carga dinámica de los elementos textuales con respecto
a la carga estática de los datos, dentro del código son:
El mantenimiento del código es más fácil si solo hay una versión
El soporte de nuevos idiomas no requiere re-compilación.
Los productos se pueden colocar en el mercado más fácilmente.
Hoy en dı́a, todas los programas deberı́an de estar internacionalizados, ya que sino es
ası́ se ha demostrado que se pierde el interés por ellos, en el caso de no conocer el idioma
en el que esta la ayuda, o la interfaz de dichos programas.
El proceso de internalización en aplicaciones Android es realmente sencillo [24].
En cualquier aplicación Android tendremos una carpeta res. En este directorio encontraremos los archivos que definen la interfaz gráfica y las cadenas de texto. Normalmente
las cadenas de texto no se escriben en el código, sino que se ponen etiquetas que hacen
referencia a dichas cadenas y éstas son escritas en el archivo res/values/strings.xml.
82
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.2. Descripción del diseño de clases
Pues bien, si queremos traducir a otro idioma estas cadenas sólo tenemos que copiar el
directorio res/values/ como value- y el código del idioma. En el caso de el español, serı́a
es.
Dentro de este nuevo directorio tendremos el archivo strings.xml, que será igual que
el original y lo único que tendremos que hacer es cambiar las cadenas por las de el idioma
que hayamos elegido.
Esta aplicación da soporte a la internacionalización, y a poder verse el programa en
múltiples idiomas diferentes. En nuestro caso, se da la opción de ver el motor en inglés,
y español, pero traduciendo los ficheros en otro idioma, ya se podrı́a ver también la
aplicación en ese nuevo idioma.
4.2.
Descripción del diseño de clases
En esta sección, se explica cuál es la estructura de cada módulo, ası́ como se muestran
las relaciones entre las clases que intervienen en cada módulo, y con los demás módulos.
4.2.1.
Diseño del Módulo de Carga de Datos
Tal y como habı́amos descrito en la sección anterior 4.1.1, este módulo se encargará de
cargar en el sistema todos los datos provenientes de los ficheros de configuración.
Estos ficheros de configuración serán XML y tendremos distintos tipos ya sean para
cargar los markers y las localizaciones o bien para cargar los objetos que contiene la
información.
Debido a ello tendremos varios compiladores XML. Tendremos una clase abstracta
XMLCompiler y subclases que redefinen ésta: AugmentedRealityXMLCompiler y ObjectsXMLCompiler.
En este módulo se dispondrá de una clase “Base de Conocimiento” (KnowledgeBase)
que contendrá las estructuras de datos necesarias para ir almacenando todos los datos
provenientes de la carga de los ficheros de configuración.
Resulta lógico pensar que sólo dispondremos de una única instancia de esta clase en
toda la aplicación. Para garantizar eso utilizamos el patrón de diseño Singleton2 [25].
2
El patrón de diseño singleton (instancia única) está diseñado para restringir la creación de objetos
pertenecientes a una clase o el valor de un tipo a un único objeto.
Su intención consiste en garantizar que una clase sólo tenga una instancia y proporcionar un punto de
acceso global a ella.
El patrón singleton se implementa creando en nuestra clase un método que crea una instancia del
objeto sólo si todavı́a no existe alguna. Para asegurar que la clase no puede ser instanciada nuevamente
se regula el alcance del constructor (con atributos como protegido o privado).
Plataforma educativa basada en realidad aumentada y dispositivos móviles
83
4. Diseño
Como hemos dicho, esta base de conocimiento contendrá los patrones, las localizaciones
y los objetos 3d con información. Pero estos objetos pueden ser de diversos tipos dependiendo de su formato. Por lo tanto, hay tres tipos de objetos que heredan de la clase
abstracta Object3D.
Para crear estos objetos se utilizará una factorı́a simple (Simple Factory)3 , que es
otro patrón de diseño. En nuestro caso hemos optado por una factorı́a simple porque
simplemente esta clase creará objetos de otras clases sin delegar en ninguna subclase.
Tiene unos métodos estáticos de creación (createObject) con los que crea los objetos en
función del tipo que sean.
En la figura 4.3, se pueden ver las clases por las que está formado el módulo de carga
de datos, ası́ como los aspectos explicados en este apartado.
3
Muchas veces, cuando se habla de un patrón factorı́a nos referimos a los patrones Factory Method o
Abstract Factory. Sin embargo, hay casos que no son cubiertos por estos patrones como por ejemplo, clases
con métodos estáticos de fabricación o fábricas concretas que tienen implementación, pero sus métodos
no son redefinibles. En estos casos, estamos ante una implementación del patrón Simple Factory.
84
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.2. Descripción del diseño de clases
Figura 4.3: Diagrama de clases del Módulo Carga de Datos
Plataforma educativa basada en realidad aumentada y dispositivos móviles
85
4. Diseño
4.2.2.
Descripción del Módulo de Localización
Como habı́amos descrito en la sección anterior 4.1.2, este módulo se encargará de obtener nuestra localización y comprobar si existe alguna información que deba ser mostrada
en esa posición.
Para obtener nuestra posición utilizaremos el servicio LOCATION SERVICE. Como
podemos ver en el siguiente código, la aplicación utiliza el servicio usando el mejor proveedor de localización disponible.
Se crea un LocationListener para recibir notificaciones del LocationManager cuando la
localización cambie.
/∗ ∗
∗ I n i c i a e l s e r v i c i o de l o c a l i z a c i ó n u t i l i z a n d o e l mejor p r o v e e d o r
, b i e n s e a GPS o a t r a v é s de l a c o n e x i ó n a I n t e r n e t .
∗ La b ú s q u e d a s e r e a l i z a cada 1 2 0 . 0 0 0 ms = 2 minutos de tiempo .
∗/
private void s t a r t G P S L o c a t i o n ( )
{
String bestProvider ;
C r i t e r i a c r i t e r i a = new C r i t e r i a ( ) ;
/∗ Use t h e LocationManager c l a s s t o o b t a i n GPS l o c a t i o n s ∗/
LocationManager mlocManager = ( LocationManager ) g e t S y s t e m S e r v i c e (
Context . LOCATION SERVICE) ;
b e s t P r o v i d e r = mlocManager . g e t B e s t P r o v i d e r ( c r i t e r i a , f a l s e ) ;
L o c a t i o n L i s t e n e r m l o c L i s t e n e r = new A R L o c a t i o n L i s t e n e r ( this , 1 0 ) ;
mlocManager . r e q u e s t L o c a t i o n U p d a t e s ( b e s t P r o v i d e r , 1 2 0 0 0 0 , 0 ,
mlocListener ) ;
}
Código 4.1: TFGARActivity.java
Este LocationListener será una clase definida por nosotros, que será la encargada de
comprobar, cuando nuestra posición cambie, si hay alguna información asociada a ese
lugar.
En caso de que se descubra alguna información deberá ser representada y visualizada
en el dispositivo.
Para notificar esta información utilizaremos el patrón de diseño Observer4 [25]. Es
sencillo de entender. El sujeto (ARLocationListener ) tendrá un conjunto de observadores
a los que notificará algún cambio cuando se produzca. Por tanto, nuestra interfaz de
usuario será el observador al que enviaremos esta información.
4
El patrón Observador (en inglés: Observer) también conocido como “spider” define una dependencia del tipo uno-a-muchos entre objetos, de manera que cuando uno de los objetos cambia su estado,
el observador se encarga de notificar este cambio a todos los otros dependientes.
El objetivo de este patrón es desacoplar la clase de los objetos clientes del objeto, aumentando la
modularidad del lenguaje, ası́ como evitar bucles de actualización (espera activa o polling).
86
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.2. Descripción del diseño de clases
Se ha construido un Observer con genericidad. Ası́, cualquier clase puede ser observador
o sujeto implementando estas interfaces.
Se puede ver en la figura 4.4, ası́ como las demás clases y las relaciones entre ellas.
Figura 4.4: Diagrama de clases del Módulo de Localización
4.2.3.
Descripción del Módulo de Renderización o Parser de objetos 3D
Tal y como habı́amos descrito en la sección anterior 4.1.3, este módulo se encargará del
proceso de renderización de objetos 3D.
Pero en nuestro sistema tenemos distintos formatos de ficheros y por tanto, la fase de
renderización será diferente en función de qué tipo tenga el objeto a parsear.
Debido a esto, tendremos una jerarquı́a de parsers. Todos ellos derivan de la clase
abstract AParser que a su vez implementa la interface IParser.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
87
4. Diseño
Figura 4.5: Diagrama de clases del módulo de Renderización o Parser de objetos 3D.
88
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.2. Descripción del diseño de clases
Cada uno de estos parsers realizará el renderizado de un tipo concreto. Para ello redefinirán el método parse. Los tipos que soporta el sistema estará definidos en la enumeración
Type
Para crear los parsers en función del tipo de archivos a procesar, usaremos un patrón
de diseño factorı́a (Simple Factory). La clase Parser será esta factorı́a simple.
Todo el proceso de renderizado estará apoyado en la librerı́a min3d [20] de Android.
Para utilizar min3d tendremos un objeto Scene que será algo ası́ como un escenario en
el que trabajamos y en el que iremos añadiendo los objetos a mostrar. Los parsers harán
que el objeto se renderice y se convierta en un objeto procesable por esta escena.
También, como habı́amos visto en el módulo de “Carga de datos” 4.2.1 hay una jerarquı́a
de objetos que se construyen también con una factorı́a.
En la figura 4.5, se pueden ver las clases por las que está formado, ası́ como las relaciones
entre ellas.
4.2.4.
Descripción del Módulo de Sonido
En el apartado 4.1.4 veı́amos que este módulo se encargaba de decodificar y reproducir
los ficheros de audio. Para ello utiliza la clase MediaPlayer [22] de Android.
Haremos que esta clase sea un sujeto observable, ya que cuando se produzca la finalización del audio de un objeto geolocalizado se deberá informar que termine la visualización
de información.
Para este propósito utilizamos de nuevo el patrón Observer [25]. Ası́ notificaremos a la
clase encargada de representar los objetos (ARToolkitDrawer ) cuando debemos finalizar
su visualización.
Pero no podemos utilizar la clase MediaPlayer tal cual, sino que debemos adaptarla
para que pueda implementar la interface IARObservable. Esto lo conseguiremos utilizando
el patrón de diseño Adapter5 [25].
Con este patrón conseguiremos justamente lo perseguido. Escribimos una nueva clase
con una interfaz de programación deseada haciendo que se comunique con una clase cuya
interface de programación es diferente.
Nos ofrece una gran oportunidad para la reutilizacion de código, permitiendo que
interactuen dos o mas objetos que supuestamente son incompatibles.
5
El patrón Adapter (Adaptador) también conocido como Wrapper se utiliza para transformar una
interfaz en otra, de tal modo que una clase que no pudiera utilizar la primera, haga uso de ella a través
de la segunda.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
89
4. Diseño
En la figura 4.6, se pueden ver las clases por las que está formado, ası́ como las relaciones
entre ellas.
Figura 4.6: Diagrama de clases del módulo de Sonido.
4.2.5.
Descripción del Módulo de Visualización de información
Como vimos en el apartado 4.1.5 este módulo es el encargado de visualizar y representar
toda la información a través del dispositivo móvil.
En todas las aplicaciones Android, habrá unos componentes Activity que serán las
ventanas con las que interactúa el usuario. En concreto, en nuestra aplicación habrá varias
ventanas (o varias Activity), pero sólo una será la principal, que será la que primero se
cargue.
90
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.2. Descripción del diseño de clases
Nosotros dispondremos de una actividad principal TFGARActivity que será la responsable de manejar la cámara e ir capturando las imagenes provenientes de ella.
Dispondremos de una clase ARToolkitDrawer que comprobará si existe algún marcador
en las imágenes capturadas. En caso de ser ası́, pediremos a la base de conocimiento la
información y la visualizará.
Esta clase tendrá un objeto MediaPlayerAdapter, que será el encargado de gestionar
los ficheros de audio y además de informar cuando finalice el sonido para terminar la
visualización de la imagen.
Para gestionar manipular los objetos debemos capturar los eventos producidos en la
pantalla táctil de nuestro dispositivo móvil. Para ello redefinimos el método boolean onTouchEvent(MotionEvent ev). Con esto conseguimos captar el movimiento de desplazamiento a través de la pantalla y el zoom a los objetos.
Para reconocer imágenes utilizamos la librerı́a NyARToolkit [23].
Además, podemos observer como nuestra Activity principal implementa la interface
IARObserver del patrón de diseño Observer [25].
En la figura 4.7, se pueden ver las clases por las que está formado este módulo, ası́ como
las relaciones entre ellas.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
91
4. Diseño
Figura 4.7: Diagrama de clases del Módulo Visualización de información.
92
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.2. Descripción del diseño de clases
Por último, como ya hemos indicado en la sección anterior podremos modificar las preferencias. Para ello utilizamos una clase TFGPreferences que hereda de PreferenceActivity.
Además, se definirán los componentes de la pantalla en un fichero XML que en nuestro
caso hemos llamado preferences.xml y podemos ver a continuación:
<?xml v e r s i o n="1.0" e n c o d i n g="utf -8"?>
<P r e f e r e n c e S c r e e n xmlns : a n d r o i d="http :// schemas . android .com/apk/res/ android
" >
<P r e f e r e n c e C a t e g o r y a n d r o i d : t i t l e ="TFG Configuration ">
<E d i t T e x t P r e f e r e n c e
a n d r o i d : d i a l o g T i t l e=" @string / patterns_url "
a n d r o i d : d i a l o g M e s s a g e=" @string /
write_patterns_url "
a n d r o i d : key=" URL_PATTERNS "
a n d r o i d : t i t l e =" @string / patterns_and_locations "
a n d r o i d : summary=" @string / patterns_url "
a n d r o i d : d e f a u l t V a l u e=" @string / URL_PATTERNS "/>
<E d i t T e x t P r e f e r e n c e
a n d r o i d : d i a l o g T i t l e=" @string / objects_url "
a n d r o i d : d i a l o g M e s s a g e=" @string /
write_objects_url "
a n d r o i d : key=" URL_OBJECTS "
a n d r o i d : t i t l e =" @string / objects "
a n d r o i d : summary=" @string / objects_url "
a n d r o i d : d e f a u l t V a l u e=" @string / URL_OBJECTS "/>
</P r e f e r e n c e C a t e g o r y >
</ P r e f e r e n c e S c r e e n >
Código 4.2: preferences.xml
Plataforma educativa basada en realidad aumentada y dispositivos móviles
93
4. Diseño
4.3.
Descripción del modelo dinámico
En esta sección nos dispondremos a realizar una descripción de cuál será el comportamiento general del sistema en aspectos dinámicos, es decir, predecir cuál será el comportamiento de éste en cada caso.
4.3.1.
Diagrama de actividad general de la aplicación
Como se muestra en la figura 4.8, en primer lugar ejecutaremos la aplicación en nuestro
dispositivo móvil. Antes de continuar, el sistema examina si existe una cámara y si tenemos
conexión a Internet. Si es ası́ se podrá pasar al siguiente paso y sino finalizará la ejecución.
Una vez superado este proceso, se intentarán descargar los ficheros de configuración y
sus datos asociados. Si no es posible, el sistema descargará los ficheros de configuración
que tiene por defecto.
Después el sistema comenzará a capturar imágenes provenientes de la cámara y a obtener la posición geográfica. En el caso de que se detecte algún patrón de los que tenga
cargados la plataforma o alguna de las localizaciones, se mostrará la información del objeto
correspondiente a ese patrón.
Estando mostrando la información el usuario podrá manipular los objetos. Como ya
habı́amos dicho podrá ejecutar dos acciones:
Mover un objeto en el espacio
Escalarlo
En el diagrama de la figura 4.8 vemos que además podremos modificar las preferencias
de la aplicación. Después de hacer estas modificaciones volveremos a recargar los datos
de los ficheros de configuración que han sido cambiados.
Por último, también podremos finalizar la aplicación cuando lo deseemos.
Para una comprensión en profundidad, en la sección 4.3.2 de este mismo capı́tulo, se
encuentran todos los diagramas de secuencia de las mismas.
94
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.3. Descripción del modelo dinámico
Figura 4.8: Diagrama de actividad general del sistema.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
95
4. Diseño
4.3.2.
Diagramas de secuencia
En esta sección, se incluyen todos los diagramas de secuencia asociados a los casos de
uso descritos en la sección 3.5 del análisis.
Para facilitar la localización y la lectura de los diagramas, éstos aparecerán por el mismo
orden en el que fueron descritos en el documento de análisis.
Caso de uso 1.1: Arrancar Aplicación Cliente
El usuario ejecutará la aplicación del cliente en su dispositivo móvil. Para ello ejecutará su actividad principal que está definida en el AndroidManifest.xml de la aplicación.
Figura 4.9: Diagrama de secuencia para el caso de uso 1.1 Arrancar Aplicación Cliente.
Vemos en la figura 4.9 que se ejecutan los métodos onCreate, onStart y onResume de
la actividad.
Esto es debido a que nuestra clase deriva de la clase Activity. Una Activity tiene principalmente tres estados:
Activo: La actividad se encuentra en primer plano e interactuando con el usuario.
96
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.3. Descripción del modelo dinámico
Figura 4.10: Ciclo de vida de una Activity en Android
Pausado: La actividad sigue siendo visible para el usuario, pero ha perdido el
foco. Por ejemplo que se haya mostrado un cuadro de diálogo delante de nuestra
actividad. Debemos guardar el estado de la interfaz y los datos de esta actividad
antes de entrar en este estado, ya que podrı́amos perderlos si el sistema necesita
más recursos de memoria.
Parado: La actividad no es visible para el usuario, queda a disposición del sistema
para borrarla de la pila en caso de necesitar memoria.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
97
4. Diseño
El ciclo de vida completo puede consultarse en la figura 4.10
Caso de uso 1.2: Mostrar patrón y obtener información
A continuación se puede ver un diagrama de secuencia simplificado de la de obtención de
imágenes y detección de markers, ası́ como del posterior proceso de dibujo de los objetos.
Faltarı́a por mostrar el proceso de carga y obtención de los datos provenientes de los
ficheros de configuración. Esto puede verse en la figura 4.16
Figura 4.11: Diagrama de secuencia para el caso de uso 1.2 Mostrar patrón y obtener
información.
Caso de uso 1.3: Obtener geoposición e información asociada
En el siguiente diagrama de secuencia se obtiene la geoposición del dispositivo móvil y
se comprueba si existe algún objeto alrededor a través del método getLocationData. En ese
98
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.3. Descripción del modelo dinámico
caso se notifica a los observadores (TFGARActivity) la nueva posición y la información a
mostrar a través del método notifyObservers() del patrón de diseño Observer.
A partir de estos datos, se podrá dibujar el objeto y mostrar la información al usuario.
Figura 4.12: Diagrama de secuencia para el caso de uso 1.3 Obtener geoposición e información asociada.
Caso de uso 1.4: Desplazar Objeto
Vemos que la actividad principal de nuestra aplicación hereda de la clase Activity. Redefinimos, por tanto, el método android.app.Activity.onTouchEvent(MotionEvent event).
Este método se llama cuando se produce un evento en la pantalla táctil del dispositivo.
De este modo conseguimos capturar el desplazamiento que se realiza.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
99
4. Diseño
Una vez obtenido el desplazamiento a aplicar a los objetos, debemos trasladarlo a todos
los objetos de la escena. Para ello llamamos al método updatePositionObjectsScene(Scene
scene, float mPosX, float mPosY, int mLastOrientation) de la clase Util.
Figura 4.13: Diagrama de secuencia para el caso de uso 1.4 Desplazar Objeto.
Caso de uso 1.5: Escalar Objeto
Figura 4.14: Diagrama de secuencia para el caso de uso 1.5 Escalar Objeto.
100
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.3. Descripción del modelo dinámico
Al igual que en el caso de uso anterior, se ha redefinido el método onTouchEvent(MotionEvent
event) de la actividad principal para capturar eventos de la pantalla. Además, creamos
un objeto de la clase ScaleGestureDetector para capturar el gesto de escalado.
Con todo ello conseguimos cambiar la escala de los objetos.
Una vez obtenido la nueva escala a aplicar, debemos trasladarlo a todos los objetos
de la escena. Para ello llamamos al método updateZoomObjectsScene(Scene scene, float
mScaleFactor) de la clase Util.
Casos de uso 1.6 y 1.7: Configuración de patrones y posiciones y Configuración
de objetos e información
Figura 4.15: Diagrama de secuencia para los casos de uso 1.6 y 1.7.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
101
4. Diseño
Como vemos en el diagrama de secuencia 4.15 se obtienen las preferencias del usuario
al iniciar la aplicación, ası́ como el menú.
Entonces el usuario selecciona el item del menú correspondiente a la configuración de
las preferencias y se crea la actividad que las gestiona a la vez que se pausa la actividad
principal.
Una vez modificadas las preferencias, se vuelve a reanudar la ejecución de la actividad
principal y se recargan los datos de los nuevos ficheros de configuración.
Figura 4.16: Diagrama de secuencia de la carga de datos.
102
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.3. Descripción del modelo dinámico
Este proceso de carga de datos se detalla en el diagrama de secuencia de la figura 4.16.
En primer lugar se borran todos los datos de la base de conocimiento y se realiza el
procesado de los ficheros XML.
Se crea un objeto de la clase AugmentedRealityXMLCompiler y se van leyendo los
patrones y las localizaciones de éste para ası́ guardarlos en la base de conocimiento.
Se crea un objeto de la clase ObjectsXMLCompiler y para cada una de ellas, se lee del
fichero de objetos el objeto y se guarda en la base de conocimiento.
Ası́ tendremos almacenados todos los datos necesarios en la aplicación: patrones, localizaciones y objetos.
Caso de uso 1.8: Salir Aplicación Cliente
El usuario decidirá salir a través del menú de la aplicación. Cuando acciona este ı́tem,
se destruirá la actividad y finalizará la ejecución del programa.
Figura 4.17: Diagrama de secuencia para el caso de uso 1.8 Salir Aplicación Cliente.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
103
4. Diseño
4.4.
Validación de los requisitos
En las tablas 4.1, 4.2, 4.3, 4.4, 4.5 y 4.6 se muestran los puntos del diseño en los que
son satisfechos cada uno de los requisitos documentados en el análisis.
4.4.1.
Requisitos comunes de los interfaces
Requisito
RC-IN-U. 1
RC-IN-U. 2
RC-IN-HW. 1
RC-IN-HW. 2
RC-IN-HW. 3
RC-IN-SW. 1
RC-IN-COM. 1
Descripción
Interfaz accesible e intuitiva
La interfaz será táctil
Será necesario el uso de la cámara del dispositivo móvil
Será necesario disponer de acceso a internet
desde el disposito móvil
Será necesario el uso del GPS del dispositivo
móvil
Reconocimiento de patrones
Se utilizará el protocolo TCP/IP para comunicar los clientes y el servidor
Cumplido en
4.1.5
4.1.5
4.1.5
4.1.1
4.1.2
4.1.5 y en el diagrama
de secuencia 4.11
4.1.1
Cuadro 4.1: Validación de los requisitos comunes de los interfaces
4.4.2.
Requisitos funcionales generales
Requisito
RF 1
RF 2
RF 3
Descripción
Sistema enfocado al ámbito educativo
Independencia entre la plataforma y las aplicaciones
Sistema flexible
Cumplido en
4.1.1 y 4.1.5
4.1.1
4.1.1
Cuadro 4.2: Validación de los requisitos funcionales generales
104
Plataforma educativa basada en realidad aumentada y dispositivos móviles
4.4. Validación de los requisitos
4.4.3.
Requisitos funcionales de la aplicación para dispositivos
móviles
Requisito
RF 4
RF 5
RF 6
Descripción
Reconocimiento de patrones y visualización
de objetos
Geoposicionar información
Se podrá asignar a cada patrón un determinado objeto, ası́ como su textura y su descripción sonora mediante un fichero de audio
El audio explicativo de un objeto debe detenerse al reproducirse otro posterior
Desde el propio dispositivo se puede maniputar el objeto
RF 7
RF 8
Cumplido en
4.1.3, 4.1.5 y en el diagrama
de secuencia 4.11
4.1.2, 4.1.5 y en el diagrama
de secuencia 4.12
4.1.1 y 4.1.3
4.1.4
4.1.5 y en los diagramas de
secuencia 4.13 y 4.14
Cuadro 4.3: Validación de los requisitos funcionales de la aplicación para dispositivos
móviles
4.4.4.
Requisitos funcionales del servidor web
Requisito
RF 9
RF 10
Descripción
Sitio web público
Configuración de rutas
Cumplido en
4.1.1
4.1.1
Cuadro 4.4: Validación de los requisitos funcionales del servidor web
4.4.5.
Requisitos funcionales de los ficheros de configuración
Requisito
RF 11
RF 12
RF 13
RF 14
Descripción
Deberán almacenar la definición de las exposiciones
Los ficheros de configuración utilizarán un
lenguaje de marcado
Ficheros de configuración divididos según el
tipo de aspecto que abarcan
Para cada exposición habrá un conjunto de
ficheros
Cumplido en
4.1.1
4.1.1
4.1.1
4.1.1
Cuadro 4.5: Validación de los requisitos funcionales de los ficheros de configuración
Plataforma educativa basada en realidad aumentada y dispositivos móviles
105
4. Diseño
4.4.6.
Requisitos no funcionales
Requisito
RNF 1
RNF 2
RNF 3
RNF
RNF
RNF
RNF
4
5
6
7
RNF
RNF
RNF
RNF
8
9
10
OR 1
Descripción
Número de dispositivos conectados
Aplicación móvil para Android
Las preferencias del usuario se almacenarán
en su propio dispositivo
Ficheros de log
Fiabilidad en los datos GPS
Servidor disponible
El sistema reconocerá que exista una conexión de datos activa al iniciar la aplicación
Configuración externa
Nuevas versiones del producto
Portabilidad de la aplicación móvil
Cumplimiento de la LOPD
Cumplido en
4.1.1
En todo el sistema
4.1.5 y en el diagrama de secuencia 4.15
4.1.1
4.1.2
4.1.1
4.1.1 y 4.1.5
4.1.1
El proceso de instalación
El proceso de instalación
4.1.1 y 4.1.5
Cuadro 4.6: Validación de los requisitos no funcionales
106
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 5
Modelo de datos
Llegados a este punto, es el momento de decidir de qué forma serán almacenados los
datos que manejará la aplicación.
En primer lugar habrá que decidir de qué forma se va a guardar la información, es decir,
decidir qué modelo seguirá. En este caso nos decidiremos por el modelo relacional ya que
la información no se encuentra aislada entre sı́ y nos permite una mayor flexibilidad a la
hora de manipularla.
5.1.
Diseño conceptual: Modelo Entidad-Relación
Peter Chen publicó en 1976 el modelo entidad relación, el cual tuvo gran aceptación
principalemnte por su expresividad gráfica. Sobre esta primera versión han trabajado numerosos autores, generando distintas extensiones de mayor o menor utilidad de aceptación
variable en el medio académico profesional.
Con el Modelo E/R se establece una visión global de los datos del sistema de información, en un nivel de abstación próxima al usuario e independiente de las caracterı́sticas
fı́sicas del equipo donde se vaya a instrumentar el sistema.
Consiste en describir la información del sistema mediante la definición de Entidades,
atributos y asociaciones o interrelaciones entre ellas.
Teniendo en cuenta y tras analizar los requisitos anteriores, pasaremos a definir el
modelo entidad-relación que se corresponde con nuestro sistema.
En esta plataforma no se usa ninguna base de datos para almacenar la información,
simplemente se usan ficheros XML donde se guarda la misma. Estos ficheros XML van a
ir intercambiándose entre el servidor y los dispositivos móviles de los clientes cuando los
usuarios decidan obtener información dinámica.
107
5. Modelo de datos
5.1.1.
Esquema Entidad-Relación
Ver figura 5.1 en la página 108
Figura 5.1: Diagrama entidad-relación del modelo de datos.
5.1.2.
Entidades
A continuación se describen cada una de las entidades y se muestran sus atributos.
Entidad Pattern
• Descripción: Esta entidad representa cada uno de los patrones que el sistema
es capaz de detectar y transformar.
• Atributos: id, name
Entidad Location
• Descripción:
• Atributos: id, name, lat, long
108
Plataforma educativa basada en realidad aumentada y dispositivos móviles
5.1. Diseño conceptual: Modelo Entidad-Relación
Entidad File3D
• Descripción: Esta entidad representa el fichero “3ds” que será el objeto que
se mostrará.
• Atributos: file
Entidad Sound
• Descripción: Esta entidad representa el archivo de sonido asociado a cada
uno de los objetos.
• Atributos: file
Entidad Texture
• Descripción: Esta entidad sirve para representar la textura asociada a cada
objeto del museo.
• Atributos: file
Entidad Object
• Descripción: Esta entidad representa los objetos del modelo de navegación,
que forman cada una de las visitas. Estos objetos serán el resultado de la
transformación de los patrones.
• Atributos: id, name, description
5.1.3.
Relaciones
A continuación se describen cada una de las relaciones que hay entre las entidades que
forman los archivos XML que la aplicación utiliza para guardar la información.
Relación displaysPO
• Entidades: Pattern(0,n) - Object(1,1)
Relación displaysLO
• Entidades: Location(0,n) - Object(1,1)
Relación containsOF
• Entidades: Object(1,n) - File3ds(0,1)
Relación containsOS
• Entidades: Object(1,n) - Sound(0,1)
Relación containsOT
• Entidades: Object(1,n) - Texture(0,1)
Plataforma educativa basada en realidad aumentada y dispositivos móviles
109
5. Modelo de datos
110
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 6
Pruebas software
Las pruebas son una parte esencial del desarrollo software. El software que se desarrolla
siempre va a contener errores, errores que en la fase de pruebas, debemos detectar y
solucionar por completo.
A lo largo del ciclo de vida del proyecto se han ido desarrollando una serie de pruebas
que se completaban al finalizar cada versión con una baterı́a de pruebas de usabilidad.
Vamos a plantear los siguientes niveles de pruebas:
Pruebas unitarias.
Pruebas de integración.
Pruebas del sistema.
Pruebas de implantación.
Pruebas de aceptación (usabilidad).
Además de estas pruebas, también se realizarán las “Pruebas de rendimiento”.
6.1.
6.1.1.
Pruebas unitarias
Definición
“Las pruebas unitarias comprenden las verificaciones asociadas a cada componente del
sistema de información. Su realización tiene como objetivo verificar la funcionalidad y
estructura de cada componente individualmente”.
Constituyen un enfoque inicial de las pruebas y sirven como base a las siguientes pruebas.
111
6. Pruebas software
Existen dos enfoques distintos de estas pruebas:
Enfoque estructural o de caja blanca: se verifica la estructura interna del componente con independencia de la funcionalidad que debe ofrecer el mismo. Se puede
comprobar los caminos de la aplicación, el código no usado, . . .
Enfoque funcional o de caja negra: se comprueba que cada componente de la aplicación cumple el papel para el que fue diseñado comprobando las entradas y las
salidas obtenidas del programa. Se diseñarán tres tipos de datos de pruebas: tipo
A, B y C. La primera consiste en la introducción de datos correctos a la aplicación.
La segunda utiliza datos en el lı́mite de los rangos permitidos. La tercera suministra
datos no válidos a la aplicación.
6.1.2.
Objetivos
Se trata de intentar asegurar que la implementación de una clase como ente individual
es correcta. Evidentemente asumimos que hay fallos que se detectarán en fases de prueba
posteriores pero es prioritario en todo desarrollo la detección de errores más temprana
posible ası́ como, también en la medida de lo posible y en los mismos términos, su solución.
6.1.3.
Planificación
Se realizará una prueba unidad de las clases que integran el proyecto. Para esto utilizamos JUnit 41 [26] y JUnit para Android (Android Test Project) [27].
Mediante la realización de las pruebas unitarias, se detectaron pequeños errores en las
unidades de software analizadas, generalmente debidos a despistes, aunque posteriormente
hubo que realizar modificaciones en métodos probados por no cumplir con la funcionalidad
que se le requerı́a a la hora de integrarlas en un conjunto mayor.
Las pruebas unitarias realizadas se pueden consultar en la sección C
6.2.
6.2.1.
Pruebas de integración
Definición
“Las pruebas de integración comprenden verificaciones asociadas a grupos de componentes, generalmente reflejados en la definición de subsistemas de construcción o en el
plan de integración del sistema de información y tienen como objetivo verificar el correcto
ensamblaje entre los distintos componentes.”
1
JUnit es un conjunto de bibliotecas creadas por Erich Gamma y Kent Beck que son utilizadas en
programación para hacer pruebas unitarias de aplicaciones Java.
JUnit es un conjunto de clases (framework) que permite realizar la ejecución de clases Java de manera
controlada, para poder evaluar si el funcionamiento de cada uno de los métodos de la clase se comporta
como se espera.
112
Plataforma educativa basada en realidad aumentada y dispositivos móviles
6.2. Pruebas de integración
En las pruebas de integración se examinan las interfaces entre los grupos de componentes
o subsistemas. Los tipos fundamentales de integración son los siguientes:
Integración incremental: se va combinando el componente que se desea probar con
los componentes previamente probados. Se consigue ası́ acotar los errores, ya que
estos se producirán en la interfaz entre los módulos anteriores y el módulo que
estamos probando. Los componentes se pueden combinar siguiendo tres técnicas:
• De arriba a abajo (top down): se prueban desde el más genérico hasta el más
especı́fico.
• De abajo a arriba (bottom-up): se prueban desde el más especı́fico hasta el más
genérico.
• Estrategias combinadas: se mezclan las dos técnicas anteriores.
Integración no incremental: se prueba cada componente por separado (pruebas unitarias), y posteriormente se ensambla todo el sistema realizando las pruebas pertinentes. Este tipo de integración se denomina Big-Bang.
La técnica aprovecha la estructura arborescente de la distribución de módulos (paquetes) del sistema para introducir el concepto en sendas modalidades de recorridos en
anchura y en profundidad.
6.2.2.
Objetivos
Se pretende comprobar la correcta colaboración establecida entre unas clases y otras
ası́ como su correcto funcionamiento. Se comprobará el comportamiento que tiene el
tándem que conforman dos o más clases acopladas entre sı́ y contrastarlo con el que
se espera de esta integración.
6.2.3.
Planificación
Como se describió de forma exhaustiva en el diseño, la aplicación presenta una estructura modular. Estos módulos en general actúan de manera independiente del resto, y por
lo tanto, el correcto funcionamiento de los servicios que cada uno de ellos brinda, se puede
garantizar mediante este tipo de pruebas.
Para la realización de estas pruebas, se ejecutaron todas y cada una de las operaciones
que permiten hacer cada uno de los módulos de forma independiente y el resultado de las
mismas fue el que sigue:
Módulo Carga de Datos.
Prueba 1. Intentar arrancar la aplicación
Situación esperada: Se espera que la aplicación detecte la presencia de una cámara
y conexión a Internet en el dispositivo móvil. En caso de que se reconozca la cámara
y haya conexión la aplicación comenzará. En caso contrario, se mostrarı́a un mensaje
al usuario advirtiéndole de la situación.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
113
6. Pruebas software
Situación obtenida: Cuando activamos bien los datos GPRS o la Wifi la aplicación arranca y continua su ejecución. Si no es ası́, se muestra un mensaje de error
advirtiéndonos de ello.
Conclusión: En este sentido la comprobación de la conexión funciona correctamente.
Prueba 2. Cargar ficheros de configuración
Situación esperada: Al intentar cargar un fichero XML, se comprobará que éste
sea un documento bien formado, es decir, que siga las reglas básicas de sintaxis
para XML. También se deberá comprobar que sea un documento XML válido.
Para ello cada tipo de fichero XML tiene su propio esquema definido en un fichero
XSD. En caso que no se cumpla alguna de estos requisitos se mostrará un mensaje
de alerta o error al usuario. Al cargar cada uno de los datos se irán almacenando en
la Base de Conocimiento de la plataforma
Situación obtenida: La lectura y carga de los ficheros XML es correcta. Pero
detectamos que los datos almacenados en la Base de Conocimiento no son correctos.
Conclusión: Podemos concluir que el método encargado de almacenar los objetos
en la Base de Conocimiento estaba fallando debido a que la lectura del fichero XML
no estaba siendo adecuada y estaba almacenando datos erróneos. Este problema se
solventó sin mayores dificultades. Solucionado este inconveniente el módulo funciona
correctamente.
Módulo de Localización
Prueba 1. Obtención de localización geográfica
Situación esperada: Se deberá obtener la posición mediante algún mecanismo de
localización disponible en el dispositivo móvil.
Situación obtenida: Probando este punto, descubrimos que si se desactiva el GPS
no obtenemos la localización.
Conclusión: Para ello se modifica el módulo para que obtenga la posición buscando
el mecanismo de localización mejor, es decir, aquel que nos ofrezca mayor precisión.
Prueba 2. Detección de información en una localización concreta
Situación esperada: A medida que se capturan datos acerca de nuestra posición,
deberemos comprobar si existen objetos informativos cercanos a ella.
Situación obtenida: Si nos desplazamos unos metros la información no es mostrada, debido a que la distancia de nuestra posición respecto al punto marcado era
muy pequeña.
Conclusión: Para ello se ha modificado el módulo para que detecte objetos en un
radio alrededor de nuestra localización mayor.
114
Plataforma educativa basada en realidad aumentada y dispositivos móviles
6.2. Pruebas de integración
Prueba 3. Mecanismo de aviso de detección de un objeto informativo al
módulo de visualización
Situación esperada: Al detectar un objeto en una posición se debe informar al
módulo de visualización.
Situación obtenida: Se detecta el objeto y se envı́a correctamente para su posterior visualización.
Conclusión: Esta prueba ha sido pasada y, por tanto, no es necesaria ninguna
modificación.
Módulo de Renderización o Parser de objetos 3D
Prueba 1. Renderizar un fichero .3ds
Situación esperada: Se deberá renderizar el fichero 3D y sus texturas asociadas.
Para eso se debe ir leyendo el fichero e interpretándolo.
Situación obtenida: Se renderiza el objeto pero no es posible obtener las texturas
remotas del objeto.
Conclusión: Se modifica el parser especı́fico para que obtenga la textura en la
misma localización que está el fichero 3D.
Prueba 2. Renderizar un fichero .obj
Situación esperada: Se deberá renderizar el fichero 3D y sus texturas.
Situación obtenida: Se realiza la renderización de los objetos probados.
Conclusión: Esta prueba ha sido pasada y, por tanto, no es necesaria ninguna
modificación.
Prueba 3. Renderizar un fichero .md2
Situación esperada: Se deberá renderizar el fichero 3D y sus texturas asociadas.
Para eso se debe ir leyendo el fichero e interpretándolo.
Situación obtenida: De nuevo aquı́ se renderiza el objeto sin obtener las texturas
remotas.
Conclusión: Se modifica el parser especı́fico para que obtenga la textura en la
misma localización que está el fichero 3D.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
115
6. Pruebas software
Módulo de Sonido
Prueba 1. Comprobar que se reproduzca un fichero de audio al detectar un
patrón
Situación esperada: Al mostrarse la información de un objeto que tenga asociado
un archivo de audio con información, deberá reproducirse.
Situación obtenida: Al detectarse el patrón el sonido comienza a reproducirse. El
problema es que si el patrón deja de detectarse durante un instante y luego vuelve
a capturarlo, el audio se iniciará desde el principio.
Conclusión: Se modifica el módulo de sonido para que si se deja de capturar el
patrón, el sonido de éste se pause y no se pare. Por tanto, al volver a detectar el
patrón anterior, el audio se iniciará en el punto en el que estaba.
Prueba 2. Detectar un patrón que no contiene ningún audio
Situación esperada: Se espera que se muestre el objeto sin oı́r ninguna explicación
sonora.
Situación obtenida: Se reproduce un audio, concretamente el de otro objeto.
Conclusión: Después de examinar la situación obtenida, se observa que se reproduce el audio correspondiente al orden en el que se cargaron los datos y no al
identificador del objeto. Por tanto, se modificará este punto.
Prueba 3. Al finalizar el audio de un objeto situado en una localización
geográfica concreta, se deberá informar que se debe dejar de visualizar el
objeto
Situación esperada: Se espera que al finalizar el audio se informe al módulo de
visualización para detener la muestra de información.
Situación obtenida: En los objetos que disponen de audio se pasa la prueba.
Pero en los objetos que no tienen audio, no se deja de visualizar la información.
Conclusión: Por ello se modifica el módulo para que se informe a los 10 segundos
de la finalización de la visualización en los objetos que no posean fichero de sonido.
Tras solucionar este problema el módulo funciona correctamente.
Módulo de Visualización de información
Prueba 1. Intentar visualizar un objeto 3D
Situación esperada: Al reconocer un patrón por medio de la cámara, se deberá mostrar correctamente el objeto 3D, ası́ como su textura.
Situación obtenida: En las primeras pruebas realizadas sobre este punto, sólo se
cargaba una parte del objeto y por tanto la visualización no era la correcta.
116
Plataforma educativa basada en realidad aumentada y dispositivos móviles
6.2. Pruebas de integración
Conclusión: Despues de innumerables pruebas en este punto se ha solucionado el
problema y se carga completamente todos los archivos 3D.
Prueba 2. Intentar visualizar un objeto sin un archivo 3DS asociado
Situación esperada: Al no existir un objeto 3D, se pretende mostrar la textura
correspondiente en plano.
Situación obtenida: Se visualiza perfectamente la textura.
Conclusión: Al haber realizado antes las pruebas con los objetos 3D, este punto
no supuso ningún problema. En este sentido el módulo funciona correctamente.
Prueba 3. Probar que el sistema reconozca una serie de patrones
Situación esperada: El sistema deberá reconocer los patrones que estén disponibles en la plataforma.
Situación obtenida: No se reconocı́a el patrón B.
Conclusión: El fichero que representa el patrón y que contiene todos los datos
de coordenadas del patrón estaba corrupto. Se vuelve a generar el patrón y todo
funciona correctamente.
Prueba 4. Una vez visualizado un objeto, desplazarlo en todas las direcciones
Situación esperada: Que al utilizar la pantalla táctil, el objeto se deberá desplazar
en la dirección indicada.
Situación obtenida: Vemos, que funciona perfectamente manteniendo la orientación del dispositivo móvil horizontal, pero si variamos la orientación los movimientos
no se corresponden.
Conclusión: Se hacen los cambios oportunos para que el desplazamiento se produzca en función de la orientación del dispositivo móvil.
Prueba 5. Escalar un objeto que se esté visualizando
Situación esperada: El objeto se escalará al realizar el gesto sobre la pantalla
táctil.
Situación obtenida: El escalado es excesivamente grande.
Conclusión: Se modifica el factor de escalado y el aumento y disminución de los
objetos se realiza de forma más progresiva.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
117
6. Pruebas software
Prueba 6. Comprobación del estado de la conexión a internet
Situación esperada: Cuando el dispositivo inicie la aplicación y no tenga conexión
a internet deberá mostrar un error y finalizar su ejecución.
Situación obtenida: En caso de haber conexión la aplicación continua su ejecución. En caso contrario se muestra una ventana informándonos del error y, aparentemente, finaliza la aplicación. Pero nos muestra una excepción.
Conclusión: Esto era debido a que se finalizaba la ejecución de la aplicación, pero
no se llamaba a un método para destruir ordenadamente la aplicación y cerrar todos
los recursos abiertos. Se informa del fallo y se modifica.
Prueba 7. Comprobación de las preferencias de usuario
Situación esperada: Al establecer las preferencias deberán guardarse de forma
persistente. Ası́, al iniciar la aplicación en otro momento, deberán cargarse éstas.
Situación obtenida: Al establecer alguna dirección de los ficheros de configuración incorrecta, salir de la aplicación e intentar volver a ejecutarla, nos muestra un
mensaje de error y la aplicación finaliza.
Conclusión: Esto se debı́a a que se guardaban las preferencias sin comprobar si
las direcciones eran válidas o no. Por tanto, en caso de ser inválidas, al iniciar la
aplicación intentaba cargar los recursos de ahı́. Se modifica para que en caso de que
los ficheros no estén disponibles se carguen otros por defecto.
6.3.
6.3.1.
Pruebas del sistema
Definición
“Las pruebas del sistema son pruebas de integración del sistema de información completo, y permiten probar el sistema en su conjunto y con otros sistemas con los que se
relaciona para verificar que las especificaciones funcionales y técnicas se cumplen.”
6.3.2.
Objetivos
Con este tipo de pruebas se desea asegurar que el sistema cumpla con todas las especificaciones funcionales, de rendimiento, seguridad,. . . impuestas en un principio por el
cliente que solicitó la aplicación (en este caso el director del proyecto).
6.3.3.
Planificación
Prueba 1. Probar el funcionamiento de visualización de objetos con patrones.
Situación esperada: Se espera visualizar los objetos cuya información está establecida en los ficheros XML de configuración al procesar el reconocimiento de un
patrón.
118
Plataforma educativa basada en realidad aumentada y dispositivos móviles
6.4. Pruebas de rendimiento
Situación obtenida: Se realiza con éxito tanto la visualización como la reproducción sonora de los objetos.
Conclusión: En este sentido los módulos de Carga de Datos, Renderización
o Parser de objetos 3D, Visualización de información y Sonido se integran
correctamente.
Prueba 2. Probar el funcionamiento de visualización de objetos en una localización geográfica.
Situación esperada: Se espera visualizar los objetos cuya información está establecida en los ficheros XML de configuración al detectar una determinada posición
geográfica.
Situación obtenida: Se realiza con éxito tanto la visualización como la reproducción sonora de los comentarios de los objetos.
Conclusión: En este sentido los módulos de Carga de Datos, Renderización o
Parser de objetos 3D, Visualización de información, Localización y Sonido
se integran correctamente.
6.4.
Pruebas de rendimiento
Nuestra plataforma consumirá una determinada cantidad de recursos (memoria, tiempo
de proceso y ancho de banda) en los dispositivos móviles en que se ejecute. Debemos
procurar que sean los menores posibles.
Es por ello que debemos medir dichos consumos para intentar evitar posibles cuellos de
botella en el rendimiento que se puedan presentar.
Estas mediciones las realizaremos con programas tales como Traffic Monitor, System
Panel Lite o Advanced Task Manager que nos proporcionen los datos buscados.
Para realizar estas pruebas utilizaremos distintos modelos de dispositivos móviles y
haremos una tabla comparativa con los resultados obtenidos.
Dispositivo móvil
HTC HD2 (Procesador Qualcomm Snapdragon a 1000 MHz y
576 Mb de RAM)
Samsung Galaxy 3 (Procesador a
667 MHz y 256 Mb de RAM)
Samsung Galaxy Mini (Procesador Qualcomm MSM7227 ARMv6
a 600MHz y 384 Mb de RAM)
Memoria
20.8 Mb
Tiempo CPU
48 s
Ancho de banda
1.6 Mb
19.3 Mb
55 s
1.7 Mb
21.4 Mb
53 s
1.6 Mb
Plataforma educativa basada en realidad aumentada y dispositivos móviles
119
6. Pruebas software
NOTA 1: Los datos obtenidos se obtienen transcurridos 3 minutos desde el inicio de
la aplicación.
NOTA 2: El consumo de red dependerá de los datos que tenga que descargar para la
exposición. En las pruebas se utilizaron siempre los mismos datos.
120
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 7
Pruebas de usabilidad
En este apartado se indicarán todas y cada una de las pruebas realizadas a la aplicación,
puesto que el fin último de la aplicación es el uso por parte de personas y su opinión debe
ser fundamental en la realización de la misma.
A lo largo del desarrollo del proyecto tendremos una serie de versiones y de todas
ellas, salvo la final que salga de todo el proceso, habrá una serie de errores y crı́ticas que
nosotros mismos u otros detectarán y solucionarán de la manera oportuna. A fin de dejar
documentado todo este proceso desarrollamos este capı́tulo.
El proyecto ha tenido una serie de versiones. Entre ellas distinguimos dos tipos:
Las versiones alpha han sido versiones de las que sólo han tenido conocimiento y valoración el desarrollador. Probablemente este tipo de versiones entendidas
ası́ serı́an innumerables, sin embargo aquı́ nos vamos a centrar sólo en aquellas en
las que se han detectado errores significativos y por tanto han marcado el rumbo
del proyecto de alguna manera.
Las versiones beta son aquellas que han sido publicadas con intención de que
fuesen versiones finales. Han sido probadas por varias personas.
Para las versiones beta necesitamos personas que hagan pruebas y nos comuniquen
errores de usabilidad, de funcionamiento o que aporten sugerencias. Para ello manejamos
dos colectivos, además, claro está, de las pruebas hechas por el propio desarrollador. Estos
dos grupos son:
Profesores compañeros del departamento de Informática del centro educativo en el
que trabajo que están relacionadas con el campo de la informática en general y,
algunos de ellos, de la usabilidad y accesibilidad.
Gente ajena al desarrollo informático, usuarios simples tanto de ordenadores domésticos como de dispositivos móviles.
121
7. Pruebas de usabilidad
Las versiones que evaluamos y documentamos aquı́ son:
Versiones alpha
• 0.1 (prototipo)
• 0.2 (versión con visualización de archivos 3DS )
Versiones beta
• 1.0 (versión con carga de datos y sonido)
• 1.1 (versión con localización e interacción del usuario)
• 1.2 (versión con preferencias del usuario)
7.1.
7.1.1.
Versiones Alpha
Alpha 0.1 (Prototipo no funcional)
Descripción y alcance
Se trata de una versión de fase muy inicial. Su propósito era el de detectar una plantilla
en una imagen, estudiando la orientación, posición y tamaño de la plantilla. La aplicación
calcula la posición y orientación relativa de la cámara respecto a la plantilla, y usando esta
información podrá pasar a dibujar el objeto correspondiente sobre la imagen capturada,
de modo que el objeto aparezca sobre la plantilla en la posición, orientación y tamaño
correspondiente al punto de vista de la cámara. En esta versión los objetos, no serı́an
realmente objetos elaborados, sino primitivas básicas y polı́gonos.
Figura 7.1: Una captura de la versión prototipo.
122
Plataforma educativa basada en realidad aumentada y dispositivos móviles
7.1. Versiones Alpha
Errores descubiertos y soluciones
Limitándonos al alcance del prototipo se hicieron pruebas desde el ámbito de desarrollo.
En ellas se detectaron los siguientes errores:
1. Sólo se representaban primitivas estándar.
Descripción: La plataforma en el primer prototipo sólo mostraba primitivas, es
decir, objetos predefinidos de OpenGL.
Solución: No hay ningún módulo de visualización de objetos y es el objetivo
fundamental para la siguiente versión.
2. Las texturas de las primitivas están inmersas en el código fuente.
Descripción: Para poder mostrar las texturas de las primitivas, se deberá cargar
la textura. El nombre del archivo, en esta versión, estará inmerso en el código fuente. Por tanto, para poder realizar alguna modificación serı́a necesario
cambiar el código fuente.
Solución: Lógicamente, este problema es necesario subsanarlo. En las siguientes
versiones se crearán archivos de configuración de la plataforma con ésta y otra
información necesaria.
7.1.2.
Alpha 0.2 (Versión servidor con visualización de archivos
3DS )
Descripción y alcance
Después de hacer que se detectasen los patrones y se mostrasen objetos (pese a ser
primitivas), ya tenı́amos una versión muy precaria del proyecto, pero aún ası́ una versión.
Lo siguiente a conseguir era que la plataforma lograse cargar y visualizar todo tipo de
objetos 3D. Se cargarı́an ficheros 3ds, obj y md2. Ası́, cualquier diseñador podrı́a realizar
su propio objeto para la plataforma y cualquier exposición puede ası́ crearse con los objetos
más apropiados.
En la figura 7.2 se puede ver cómo era la interfaz al finalizar esta versión.
Errores descubiertos y soluciones
1. No hay externalización en ficheros de configuración.
Descripción: Todos los datos correspondientes a los objetos tridimensionales a
cargar, ası́ como sus texturas siguen estando en el código fuente con lo que esto
implica. Un cambio en estos datos requirirı́a la modificación de código, algo
inadmisible.
Solución: Para la siguiente versión se propondrá una solución mediante ficheros
XML.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
123
7. Pruebas de usabilidad
Figura 7.2: Interfaz de la versión Alpha 0.2
2. Se echa en falta una descripción sonora del objeto.
Descripción: Sólo la visualización del objeto 3D se nos queda corto para satisfacer al usuario.
Solución: Por tanto se propondrá una forma de aumentar la información. Se
añadirán comentarios sonoros, que se reproducirán automáticamente para cada
objeto al mostrar este.
7.2.
7.2.1.
Versiones Beta
Beta 1.0 (Versión con carga de datos y sonido)
Descripción y alcance
Lo siguiente a conseguir era una plataforma totalmente independiente de lo que es la
aplicación y los datos cargados en ésta. Para ello se realiza una carga de datos desde la
aplicación. Los datos estarán en ficheros XML. Cada fichero tiene asociada un esquema
definido en un fichero XSD. Se añade ası́ un módulo de Carga de datos.
Además de esto, en esta versión se ha propuesto aumentar la información que capta
el visitante. Hasta el momento sólo visualizaba objetos 3D. Se pretende aumentar la
información añadiendo un módulo de Sonido. El sonido se reproducirá al mostrar un
objeto.
Errores descubiertos y soluciones
1. No deben ser obligatorios ni el sonido ni el objeto 3ds de los ficheros XML.
Descripción: En los ficheros XML que describen cada objeto hay una serie de
etiquetas que no deberán ser obligatorias, ya que muchos objetos no tienen
124
Plataforma educativa basada en realidad aumentada y dispositivos móviles
7.2. Versiones Beta
porqué tener una descripción sonora, o simplemente es una imagen y no tienen
asociados ningún archivo 3ds.
Solución: Se modifica el módulo Carga de Datos para poder establecer ciertos
atributos como opcionales y ası́ adaptarlo mucho mejor a las necesidades del
visitante.
2. Detectar un patrón que contiene audio cuando se está reproduciendo el de otro
objeto
Descripción: La explicación del objeto anterior no se detiene y se lanza en paralelo otro audio con la nueva explicación. Por lo tanto suenan dos explicaciones
simultáneamente lo que imposibilita el entendimiento.
Solución: Se deberá modificar el sistema para que cuando el sistema detecte
otro objeto distinto, en el que haya asociado un sonido, se detenga el primero
e inmediatamente después se reproduzca el del objeto mostrado.
7.2.2.
Beta 1.1 (Versión con localización e interacción del usuario)
Descripción y alcance
La segunda versión beta nace con el añadido de un módulo de Localización y con
una mejora sustanciable de la interfaz gráfica de usuario 7.3. Esta versión ya tenı́a una
funcionalidad casi completa, solamente le faltarı́a todas las opciones de personalización
de las opciones del usuario.
Figura 7.3: Interfaz de la versión Beta 1.1
Plataforma educativa basada en realidad aumentada y dispositivos móviles
125
7. Pruebas de usabilidad
Para la mejora de la interacción del usuario con la aplicación se propone un sistema
para manipular los objetos a través de la pantalla táctil de los dispositivos móviles.
Además, se propone un nuevo diseño en las preferencias de usuario para la siguiente
versión que se puede ver en el siguiente prototipo:
Figura 7.4: Prototipo para la versión final
Errores descubiertos y soluciones
1. Desplazamiento de los objetos incorrecto
Descripción: Al interactuar con el objeto mostrado no tiene en cuenta la orientación del dispositivo. Si está en posición vertical e intentamos desplazar el
objeto a la derecha, veremos que se moverá en otra dirección.
Solución: Deberemos provocar los desplazamientos de los objetos en función de
la orientación del dispositivo móvil.
2. Escalado excesivo
Descripción: Al producirse un escalado de un objeto veı́amos que se producı́a
de manera excesiva.
Solución: La solución consistió en disminuir el factor de escalado y por tanto
se realiza más lenta y progresivamente.
3. Tamaño excesivos de los objetos al mostrarse mediante localización geográfica
Descripción: Al mostrar un objeto cuando accedemos a una localización geográfica concreta, éste aparece a un tamaño mayor del esperado y no se muestra
completo.
126
Plataforma educativa basada en realidad aumentada y dispositivos móviles
7.2. Versiones Beta
Solución: Pese a que se solucionarı́a reduciéndolo mediante el zoom, creemos
conveniente disminuir el tamaño y mostrarlo centrado en la pantalla.
7.2.3.
Beta 1.2 (Versión con preferencias del usuario)
Descripción y alcance
Esta versión ya es muy cercana a la que puede ser la versión final. Con esta versión ya
se consigue el 100 % de la funcionalidad, es decir, ya esta operativa la aplicación y todas
las acciones que de manipulación y configuración por parte de los usuarios. Además se
establece un comportamiento de mı́nimos para ella igual al de la aplicación final. Esto
quiere decir que es la versión de partida en la última parte del desarrollo, parte en la cual
nos dedicaremos a descubrir errores mediante pruebas de distinta ı́ndole hasta intentar
conseguir una aplicación libre de errores.
En esta versión se siguen haciendo pruebas para seguir recibiendo, estudiando y corrigiendo los errores que detectan los probadores.
Errores descubiertos y soluciones
1. Confusión en los ı́tems de configuración
Descripción: Se detecta que con el diseño actual se producen confusiones sobre
qué caja de texto corresponde a cada apartado.
Solución: Se propone un nuevo diseño para hacer más intuitiva la pantalla de
configuración. Se puede ver en las imágenes 7.5 y 7.6
Figura 7.5: Diseño de la pantalla de configuración
2. Intentar cambiar el idioma
Plataforma educativa basada en realidad aumentada y dispositivos móviles
127
7. Pruebas de usabilidad
Figura 7.6: Editando en la pantalla de configuración
Descripción: Se intenta cambiar el idioma. Al poner la aplicación en inglés
habı́a ciertos elementos en español.
Solución: Esto era debido a que no se habı́an traducido ciertos ı́tems.
Por último, se muestran unas capturas de pantallas de la versión al finalizar la fase de
pruebas con sus correspondientes correcciones:
Figura 7.7: Pantala principal final
128
Plataforma educativa basada en realidad aumentada y dispositivos móviles
7.2. Versiones Beta
Figura 7.8: Configuración final 1
Figura 7.9: Configuración final 2
Plataforma educativa basada en realidad aumentada y dispositivos móviles
129
7. Pruebas de usabilidad
7.3.
Probadores : Los usuarios finales
Se ha podido reunir a unos pocos probadores (sobre 10) de diversa formación para hacer
unas sencillas pruebas. Con las que se ha pretendido probar:
La funcionalidad del sistema con todas sus restricciones y contrastar su utilidad
real a nivel de usuario. Entendemos aquı́ que el sistema parte con unas limitaciones
dadas por la tecnologı́a que se ha empleado. Sin embargo no serı́a útil un sistema
demasiado restrictivo, es necesario comprobar que en el grueso de las acciones, el
sistema se comporta adecuadamente.
La facilidad de uso y la adecuación de los manuales de usuario. Los usuarios simplemente dispondrán de patrones que visualizarán delante de la cámara para tratar de
reconocerlo y mostrar un objeto con información y ellos mismos deberı́an de saber
funcionar correctamente con la aplicación sin saber muy bien su total funcionalidad.
Las más diversas cuestiones de diseño de interfaces, accesibilidad. . . Es muy importante que la intuitividad sea constante en el resultado final. Para ello es necesario
que la interfaz sirva realmente para lo que pretende servir.
Por último, después de valorar los puntos anteriores hemos tenido en cuenta el grado
de satisfacción de los usuarios que han probado el sistema. Aunque consciente de
que la validez de este punto ha de ser contrastada con el resultado de los anteriores
(a una pregunta de ¿Qué te parece? la respuesta puede que no sea todo lo objetiva
que se puede desear), sı́ que puede ayudar a acabar de situar el resultado de la
prueba.
Para realizar todas esta comprobaciones, como ya hemos dicho, hemos reunido a unas
personas de diversa formación. Se pueden clasificar en tres grandes grupos:
Compañeros del departamento de Informática del centro en el que trabajo: Ingenieros en informática muchos de los cuáles han trabajado activamente en usabilidad
y temas de accesibilidad. Su papel en las pruebas se incrementa para el punto de
cuestiones de diseño.
Avanzados: Personas que con formación informática o sin ella, trabajan de manera
asidua con las nuevas tecnologı́as. Se espera de ellos errores en puntos concretos.
Usuarios estándar: Utilizan la informática a nivel usuario, es posiblemente el nivel
que más nos interesa y en el que más se estuvo atento a la comprensión de manuales
y al proceso de aprendizaje.
Aunque de cada uno de ellos se esperarı́a que detectasen un tipo de errores diferente,
no tiene porque ser ası́. Cualquier usuario puede detectar cualquier error y de hecho
ası́ ocurrió:
Gente del departamento no le ejecutaba la aplicación por problemas en la conexión
de datos.
Usuarios avanzados detectaron errores de usabilidad.
130
Plataforma educativa basada en realidad aumentada y dispositivos móviles
7.3. Probadores : Los usuarios finales
Esto serı́a buena señal ya que significa que los usuarios finales con el manual de usuario
y la interfaz tiene un conocimiento total de lo que debe ser el sistema y lo que debe hacer.
Los conocimientos sobre el tema se quedan un poco al margen, cosa que por otra parte
lógica, si estamos persiguiendo.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
131
7. Pruebas de usabilidad
132
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 8
Presupuesto y Plan Temporal
8.1.
Presupuesto
En este capı́tulo vamos a realizar un presupuesto general para el desarrollo del proyecto.
Para ello se utiliza una herramienta creada en Excel para tal fin.
8.1.1.
Desarrollo del proyecto
Aquı́ se enumeran las tareas relativas a la fase de codificación propiamente dicha y se
hace una estimación de tiempos para cada una.
Se detallarán las tareas unitarias propias de la fase de codificación, pudiendo agruparse
por bloques para facilitar la lectura. Para cada tarea tendremos los siguientes campos:
id : es un secuencial para identificar cada entrada
tarea :descripción de la tarea
horas: las horas estimadas para realizar la codificación de dicha tarea (solo codificación. Se excluye todo lo demás: análisis, pruebas, manuales, etc. . . )
% total : Es un campo informativo. Indica el peso de la estimación de cada tarea en
relación a la estimación total del desarrollo
Como se puede ver en la figura 8.1, se especifican las tareas del proyecto agrupándolas
en los módulos del proyecto:
Módulo de Carga de Datos
Módulo de Localización
Módulo de Renderización o Parser de objetos 3D
Módulo de Sonido
Módulo de Visualización de información
133
8. Presupuesto y Plan Temporal
Figura 8.1: Estimación de horas del desarrollo del proyecto
En total, la estimación del desarrollo del proyecto será de 420 horas.
8.1.2.
Tareas globales del proyecto
Ahora debemos estimar las horas relativas al resto de tareas (gestión, pruebas, etc. . . ).
Podemos establecer las horas como un porcentaje de la fase de Desarrollo (por ejempl
15 % de las horas del Desarrollo) o como un valor de horas fijo (por ejemplo 40 horas).
Se reflejan cada una de las tareas que componen el proyecto completo. Para cada fila,
se tienen los siguientes campos (columnas):
Tarea: Descripción de la tarea
h. %: Porcentaje de horas de esta tarea en relación a las horas de la hoja Desarrollo
h.fija: Estimación de horas fija, sin relación con las horas de Desarrollo
Horas: Es la estimación resultado de usar una de las dos columnas anteriores. Por
defecto, si se rellenan las dos, prevalece la de horas fijas
134
Plataforma educativa basada en realidad aumentada y dispositivos móviles
8.1. Presupuesto
% total: es un campo informativo sobre el peso de dicha tarea en relación al
proyecto completo
Figura 8.2: Estimación de horas de todas las tareas del proyecto
Las tareas del proyecto son las siguientes (se pueden consultar las horas destinadas a
cada una de ellas en la figura 8.2):
Gestión del proyecto
Análisis Funcional
Diseño Técnico
Propuesta Gráfica
Elaboración maqueta
Elaboración Plan de Pruebas
Config. entorno desarrollo
Desarrollo
Integración componentes
Ejecución Plan de Pruebas
Documentación
Instalación
Plataforma educativa basada en realidad aumentada y dispositivos móviles
135
8. Presupuesto y Plan Temporal
Formación
Mantenimiento
8.1.3.
Dedicación por perfiles
En este bloque, en cada columna, se refleja el grado de participación de cada perfil en
la tarea correspondiente.
En nuestro caso, hemos considerado que en este proyecto participarán los perfiles siguientes:
Gerente (G)
Jefe de Proyecto (JP)
Arquitecto o Analista (A)
Programador Senior (PS)
Programador Junior (PJ)
Otros (O)
Cada uno de estos perfiles, tendrá un grado de participación mayor o menor en cada
tarea dependiendo de sus funciones.
Figura 8.3: Dedicacion de cada uno de los perfiles en las tareas del proyecto
136
Plataforma educativa basada en realidad aumentada y dispositivos móviles
8.1. Presupuesto
8.1.4.
Horas y tarifas por perfiles
En este bloque se indica la tarifa (precio por hora de trabajo) correspondiente a cada
perfil y se calculan los costes para cada tarea en base a su dedicación.
El contenido del bloque debe leerse en grupos de dos columnas, cada uno de grupos de
dos columnas se corresponde con uno de los perfiles descritos antes.
En la cabecera de cada grupo, junto a cada perfil, se indica la tarifa asociada en euros/hora. Se han establecido unas tarifas acordes a la situación del mercado.
En la primera columna de cada grupo, se muestran las horas de dedicación de ese perfil
a cada tarea. Es el resultado del porcentaje de dedicación indicado antes.
En la segunda, se muestra el resultado, en euros, de multiplicar esas horas de dedicación, por la tarifa asociada a ese perfil.
En la penúltima fila de este bloque se tienen sumatorios de horas y euros que indican
la dedicación y coste total por perfil.
En la última se muestra información sobre el peso de dicha dedicación y coste en
relación al total.
Figura 8.4: Horas y tarifas para cada perfil
8.1.5.
Costes finales y presupuesto total del proyecto
Por último mostraremos el coste total del proyecto en euros, en base a las horas estimadas, los perfiles, la dedicación y las tarifas de cada perfil.
Suma: Indica el coste total de la tarea, en base a los perfiles implicados en ella, su
dedicación y su tarifa.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
137
8. Presupuesto y Plan Temporal
% total: Es un campo informativo sobre el peso de dicho coste en relación al coste
del proyecto completo
Figura 8.5: Costes finales del presupuesto
Este presupuesto se ha realizado para un equipo ya conformado, por tanto, los recursos
materiales como pueden ser los equipos de desarrollo no se incluyen independientemente,
sino que ya forman parte de las tarifas.
Ası́ mismo, estas tarifas por horas ya incluyen un porcentaje de posibles imprevistos.
Visto todo esto, podemos concluir que nuestro presupuesto total será de 30.552,90
euros.
8.2.
Plan Temporal
En la figura 8.6 se puede ver el Plan temporal que realizamos para el desarrollo del
Proyecto.
Este plan temporal está realizado para que el proyecto sea elaborado por el equipo de 5
personas antes mencionado. Vemos que en total, el proyecto se realizarı́a en 772,9 horas.
Esto equivale a un plazo de 50 dı́as (a media jornada). En caso de que el proyecto sea
desarrollado por una sola persona, como es el caso del desarrollo de este proyecto, serı́an
unos 193 dı́as (unos 9 meses de desarrollo a media jornada).
Por último podemos ver en la figura 8.7 podemos ver las tareas y sus asignaciones a
cada uno de los recursos, ası́ como el costo de las fases.
138
Plataforma educativa basada en realidad aumentada y dispositivos móviles
8.2. Plan Temporal
Figura 8.6: Diagrama de Gannt
Plataforma educativa basada en realidad aumentada y dispositivos móviles
139
8. Presupuesto y Plan Temporal
Figura 8.7: Tareas y sus recursos asignados
140
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 9
Manual del programador
En este capı́tulo, nos centraremos en la descripción de la estructura con la cual ha sido
implementada la aplicación, ası́ como en la de todos los componentes utilizados. Todas
las clases se encuentran almacenadas en los siguientes paquetes:
com.ivanlorenzo.connection
com.ivanlorenzo.data
com.ivanlorenzo.gui
com.ivanlorenzo.location
com.ivanlorenzo.parser
9.1.
Paquete com.ivanlorenzo.connection
En este paquete, es el que se utiliza para comprobar el estado de la conexión en el
dispositivo móvil. A continuación se muestra una tabla con la descripción de las diferentes
clases de este paquete:
ConnectionStatus.java : Clase que utilizaremos para comprobar el estado de la
conexión a Internet. Tiene métodos estáticos que comprobarán si tenemos conexión
o no
9.2.
Paquete com.ivanlorenzo.data
En este paquete, es en el cual se engloban todas las cases que son utilizadas para la
carga de los datos necesarios para realizar la exposición. Se deberán cargar los datos de
los patrones y localizaciones ası́ como los objetos que tengan asignados.
Las clases que nos encontramos en este paquete, organizadas por subpaquetes son las
explicadas en los cuadros que siguen:
XMLCompiler.java : Clase genérica encargada de la compilación de ficheros XML.
141
9. Manual del programador
AugmentedRealityXMLCompiler.java : Clase hija de XMLCompiler encargada de compilar el fichero XML que contiene la información sobre los patrones y
localizaciones.
ObjectsXMLCompiler.java : Clase hija de XMLCompiler encargada de compilar
el fichero XML que contiene la información sobre los objetos.
KnowledgeBase.java : Base de conocimiento que almacena toda la información
sobre los objetos y los patrones que se va cargando
CompilerGenerator.java : Clase que es la encargada de iniciar la carga de ficheros
Pattern.java : Clase que contiene las propiedades del patrón al que le irá asignado
un objeto.
GeoLocation.java : Clase que representa una localización al que le irá asignado
un objeto.
9.2.1.
Paquete com.ivanlorenzo.data.exceptions
LoadXMLException.java : Excepción en el caso que se produzca algún error en
la carga de datos.
NoSuchExtensionObject3DException.java : Excepción que se lanzará cuando
intentemos cargar un fichero 3D cuya extensión
9.2.2.
Paquete com.ivanlorenzo.data.objects
Este paquete contendrá las clases que gestionan todo lo relacionado con la gestión y
creación de los distintos tipos de objetos que soporta la plataforma.
Object3D.java : Clase que representa un objeto 3D.
Max3DSObject.java : Clase que representa un objeto con formato 3ds. Esta clase
hereda de Ojbect3D
MD2Object.java : Clase que representa un objeto con formato md2. Esta clase
hereda de Ojbect3D
OBJObject.java : Clase que representa un objeto con formato obj. Esta clase
hereda de Ojbect3D
Object3DCreator.java : Clase factorı́a que será la encargada de crear un objeto
determinado en función de su tipo. Para esto utiliza alguno de sus métodos estáticos.
142
Plataforma educativa basada en realidad aumentada y dispositivos móviles
9.3. Paquete com.ivanlorenzo.gui
9.2.3.
Paquete com.ivanlorenzo.data.objects.audio
Este paquete contendrá las clases que gestionan todo lo relacionado con la obtención y
reproducción de ficheros de audio.
Audio.java : Clase abstracta que representa un objeto de sonido que contendrán
los objetos.
LocalAudio.java : Clase que hereda de Audio. Se utilizará para representar audios
que estén en el dispositivo.
RemoteAudio.java : Representa un audio localizado en una ubicación remota.
Hereda de la clase Audio
MediaPlayerAdapter.java : Clase adaptadora del patrón Adapter [25] que adapta la clase MediaPlayer y además es un sujeto observable ya que cuando finalice el
audio deberá avisar a sus observadores para que realicen las acciones oportunas.
9.3.
Paquete com.ivanlorenzo.gui
En este paquete, es en el cual se engloban todas las cases que son utilizadas para
gestionar la interfaz gráfica de usuario. A continuación se muestran las descripciones de
las diferentes clases de este paquete:
TFGARActivity.java : Clase Activity principal de la aplicación. Será la encargada
de manejar la recepción de datos de la cámara. Además, recibirá los eventos táctiles
producidos en la pantalla y gestionará la escena en la que se encontrarán todos los
objetos.
ARToolkitDrawer.java : Clase responsable de dibujar los objetos. Está basada
en min3d.
Util.java : Clase de utilidades que contendrá un conjunto de métodos estáticos de
ayuda a otras clases
ARStatus.java : Enumeración de los estados en los que puede estar funcinando la
aplicación.
MessageWhat.java : Enumeración con los mensajes mostrados por la aplicación.
Las clases que nos encontramos en este paquete, organizadas por subpaquetes son las
explicadas en los cuadros que siguen:
9.3.1.
Paquete com.ivanlorenzo.gui.dialogs
DialogType.java : Enumeración de los tipos de diálogos de la aplicación.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
143
9. Manual del programador
9.3.2.
Paquete com.ivanlorenzo.gui.preferences
TFGPreferencesActivity.java : Activity que gestiona las preferencias del usuario.
Carga las preferencias del recurso preferences.xml.
9.4.
Paquete com.ivanlorenzo.location
Esta paquete es el encargado de obtener nuestra localización actual y comprobar si
existe alguna información que deba ser mostrada.
Las clases que nos encontramos en este paquete, organizadas por subpaquetes son las
explicadas en los cuadros que siguen:
ARLocationListener.java : Clase “sujeto observable” del patrón observer que, a
su vez, implemente LocationListener y recibe cuándo se produce un cambio en la
posición GPS y en caso de que esta posición contenga cercano una localización de
los ficheros de configuración, notificará a todos los observadores que debe mostrarse
la información asociada a dicha posición.
LocationData.java : Clase que representa el estado de la localización. Se implementa como un Singleton ya que sólo queremos tener una única instancia.
9.4.1.
Paquete com.ivanlorenzo.location.observer
IARObserver.java : Interface genérica Observadora del patrón Observer [25].
Este patrón define una dependencia del tipo uno-a-muchos entre objetos, de manera
que cuando uno de los objetos cambia su estado, el observador se encarga de notificar
este cambio a todos los otros dependientes.
IARObservable.java : Interface genérica Observable del patrón Observer que
tendrá un conjunto de observadores y notificará a éstos cuando se produzca algún
cambio de estado.
ARObservable.java : Clase abstracta que implementa la interface IARObservable.
Contiene un elemento genérico y una lista de observadores genéricos.
9.5.
Paquete com.ivanlorenzo.parser
Esta paquete es el encargado del proceso de renderización de objetos 3D.
IParser.java : Interface para los parsers de objetos 3D basada en min3d.
AParser.java : Clase abstracta Parser con la funcionalidad básica del proceso de
parseo que implementa IParser.
Max3DSParser.java : Parser especı́fico para los objetos Max3DS.
MD2Parser.java : Parser especı́fico de los objetos MD2.
144
Plataforma educativa basada en realidad aumentada y dispositivos móviles
9.5. Paquete com.ivanlorenzo.parser
ObjParser.java : Parser especı́fico de los objetos obj.
ParseObjectData.java : Clase que contiene la información de un objeto parseado.
Parser.java : Clase factorı́a de Parsers. Especifica el tipo de parser y devuelve la
clase especializada de parser.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
145
9. Manual del programador
146
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 10
Manual de internacionalización
Mediante el siguiente manual, lo que se pretende es aportar una explicación detallada
de cuál ha de ser el proceso adecuado para la internacionalización del sistema.
Este manual estará dividido en dos apartados bien diferenciados:
Internacionalización de la interfaz. 10.1.
Internacionalización de los contenidos del modelo de navegación. 10.2.
10.1.
Internacionalización de la interfaz
La internacionalización es el proceso de diseñar una aplicación para que pueda ser
adaptada a diferentes idiomas o regiones, sin necesidad de cambios de ingenierı́a.
Permite que las aplicaciones admitan las codificaciones de datos necesarias para procesar
información multilingüe, ası́ como los formatos de moneda, calendarios, etc.
El nombre es una combinación de un código de referencia cultural de dos letras en
minúscula asociado con un idioma, y un código de referencia cultural secundaria de dos
letras en mayúscula asociado con un paı́s o región. El código de referencia cultural secundaria sigue al código de referencia cultural, separados por un guión (-). Los ejemplos
incluyen “ja-JP” para el japonés de Japón, “en-US” para el inglés de EE.UU. y “de-DE”
para el alemán de Alemania (a diferencia de “de-AT” para el alemán de Austria). En los
casos en los que no halla un código de idioma de dos letras disponible, se usa el código de
tres letras que se deriva de ISO 639-2; por ejemplo, se usa el código de tres letras “div”
para referencias culturales que utilizan el idioma dhivehi. Algunos nombres de referencias
culturales tienen sufijos que especifican la escritura; por ejemplo, “-Cyrl” especifica las
letras del cirı́lico, “-Latn” especifica las letras del latı́n.
Ejemplos de referencias culturales asociados a unos idiomas:
ar : Arabic
147
10. Manual de internacionalización
bg : Bulgarian
ca : Catalan
zh-CHS : Chinese (Simplified)
zh-CHT : Chinese (Traditional)
cs : Czech
da : Danish
de : German
el : Greek
en : English
es : Spanish
fi : Finnish
fr : French
En muchos entornos de desarrollo resulta ser una tarea “tediosa” porque muchas veces
necesitamos utilizar librerı́as, scripts extras o archivos dedicados a indicar cuáles cadenas
de texto serán las que se traducirán según la configuración de idioma que defina el usuario.
En Android es algo muy sencillo de implementar. Ası́ que vamos explicar la internacionalización mediante un ejemplo: introducir un nuevo idioma.
En toda aplicación en Android deberá existir un directorio res / values. En este directorio habrá un fichero strings.xml que será el que contendrá las cadenas de texto.
Pero si queremos manejar distintos idiomas será necesario agregar un directorio llamado
res / values-[códigoDelIdioma] con un archivo llamado strings.xml en el que se incluyen
las mismas cadenas del otro archivo pero esta vez con sus traducciones respectivas al
nuevo idioma.
Por tanto, si queremos añadir el idioma francés haremos lo siguiente:
Crear la carpeta res / values-fr
Crear un fichero strings.xml
Con estos pasos la interfaz de usuario ya soportarı́a un nuevo lenguaje. Tan sólo deberı́amos cambiar el idioma en las propiedades del dispositivo móvil.
Ahora quedarı́a cambiar de lenguaje el contenido de la información.
148
Plataforma educativa basada en realidad aumentada y dispositivos móviles
10.2. Internacionalización de los contenidos
10.2.
Internacionalización de los contenidos
Para traducir los contenidos de la información habrı́a que seguir los siguientes pasos:
Vamos al archivo strings.xml creado y copiamos el contenido de otra carpeta values.
Una vez copiado, sólo deberemos hacer la traducción de los textos al nuevo idioma,
en nuestro ejemplo, el francés.
Con estos pasos ya estarı́a añadido un nuevo lenguaje y listo para su uso.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
149
10. Manual de internacionalización
150
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 11
Manual del instalador
Mediante el siguiente, lo que se pretende es aportar una explicación detallada de cual
ha de ser el proceso adecuado para la instalación y posterior explotación del sistema.
11.1.
Requisitos
Para instalar la aplicación, deben cumplirse los siguientes requisitos:
Disponer de un sistema operativo Android en el dispositivo móvil.
Poseer conexión a Internet desde el teléfono para descargarnos la aplicación.
11.2.
Instalación
En lı́neas generales para instalar una aplicación en Android se pueden seguir dos métodos:
1. Desde Android Market [28] o alguna tienda de aplicaciones similar: buscaremos
las aplicaciones que queremos instalar en nuestro teléfono, para lo cual es necesario
conectarse a Internet a traves de él.
En el market encontraremos infinidad de aplicaciones y juegos, la mayoria gratuitas. Simplemente elegimos la que queramos instalar. Antes de instalarla podemos
obtener más información sobre ella, los permisos que necesita e incluso comentarios
y valoraciones de otros usuarios.
Nosotros descartamos esta opción ya que para tener una cuenta hay que registrarse
y pagar una inscripción en Google. Usaremos, por tanto, la siguiente opción.
2. Otra opción es instalar directamente una aplicación desde un fichero .apk .
Para ello deberemos activar la casilla “Orı́genes Desconocidos” en Ajustes Aplicaciones tal como puede verse en la figura 11.1
El siguiente paso será descargar el fichero o bien pasarlo al fichero a través
del ordenador o cual otro medio. El fichero puede encontrarse en http://tfg.
ivanlorenzo.es/apk/TFG.apk
151
11. Manual del instalador
Figura 11.1: Activar “Orı́genes desconocidos” en Ajustes del teléfono
Una vez que disponemos del fichero en nuestro dispositivo móvil procederemos
a ejecutarlo y se iniciará el instalador como vemos en la figura 11.2.
Como podemos observar nos pide consentimiento para instalarla y nos muestra
los permisos que debemos aceptar para continuar.
Figura 11.2: Instalador de la aplicación
152
Plataforma educativa basada en realidad aumentada y dispositivos móviles
11.2. Instalación
El instalador finalizará y con esto tendremos nuestra aplicación correctamente
instalada en el dispositivo móvil y podremos ejecutarla 11.3.
Figura 11.3: Instalación finalizada
Plataforma educativa basada en realidad aumentada y dispositivos móviles
153
11. Manual del instalador
154
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 12
Manual de usuario
12.1.
Introducción
Llegados a este punto, es el momento de marcar un punto de inflexión y abandonar los
tecnicismos, para centrarnos en lo que será una descripción analı́tica y totalmente práctica
del funcionamiento general de la plataforma desde el punto de vista del usuario.
En las secciones que siguen, se irán describiendo una por una, todas las acciones que
los usuarios pueden realizar con la herramienta.
12.2.
Guı́a de uso
Para poder llevar a cabo todas las funciones de la plataforma describiremos las opciones
que se nos ofrece.
Figura 12.1: Pantalla principal de la aplicación
155
12. Manual de usuario
Nada más concluir la instalación y arrancar la aplicación la cámara comienza a capturar
imágenes. Se muestra en la figura 13.1
En la pantalla del dispositivo se muestran las imágenes capturadas por la cámara en
tiempo real.
Si la cámara detecta algún patrón de los que están cargados o si nos encontramos en una
posición geográfica cercana a una establecida en los ficheros de configuración, le superpone
el objeto con la información asociada.
En la parte inferior de la pantalla podemos ver un espacio destinado a mostrar los comentarios de los objetos. Estos comentarios se visualizarán en el momento que se muestre
dicho objeto.
Se podrán hacer una serie de transformaciones sobre el estado del objeto (ya sea moviéndolo o escalándolo) y los resultados se verán en dicha pantalla.
12.2.1.
Acciones del usuario sobre los objetos
El usuario podrá realizar una serie de acciones sobre los objetos que esté visualizando:
Mover un objeto
Escalar un objeto
Mover un objeto
Para mover un objeto, el usuario deberá arrastrar el dedo sobre la pantalla hacia la
posición que desee que se produzca el desplazamiento.
Figura 12.2: Desplazamiento de un objeto
156
Plataforma educativa basada en realidad aumentada y dispositivos móviles
12.2. Guı́a de uso
Escalar un objeto
El usuario también podrá escalar un objeto. Para ello deberá hacer un gesto tı́pico
en las interfaces táctiles: pinch zoom. Si desea aumentar el tamaño del objeto, habrá que
colocar dos dedos sobre la pantalla y sin levantarlos, alejarlos. En caso contrario, si los
dedos se acercan, el objeto disminuirá de tamaño.
Figura 12.3: Escalado de un objeto
12.2.2.
Opciones del menú de la aplicación
La aplicación dispondrá también de un menú en el que se podrán realizar una serie de
acciones:
Figura 12.4: Opciones del menú de aplicación
Establecer las preferencias de configuración
Plataforma educativa basada en realidad aumentada y dispositivos móviles
157
12. Manual de usuario
Salir de la aplicación
Para lanzar este menú, casi todos los dispositivos móviles Android tienen una tecla
especı́fica. Estos elementos normalmente se muestran como un pop-up en la parte inferior
de la pantalla cuando se presiona dicha tecla. En nuestra aplicación ası́ sucederá.
Establecer las preferencias de configuración
Los datos que se cargarán en la aplicación serán externos a ésta y, por tanto, configurables. Para ello el usuario puede modificarlos a través de la opción “Configuración”.
Habrá dos ficheros de configuración:
Fichero de patrones y localizaciones: en él se especifican los patrones que reconocerá la cámara, ası́ como las localizaciones que detectará la aplicación. Cada una
de ellas tendrá asociada un objeto.
Fichero de objetos: datos de los ficheros como son una descripción, el fichero del
objeto tridimensional, una textura y un sonido.
En la aplicación podremos procesar otros ficheros de configuración y ası́ cargar otros
datos.
Para cada uno de ellos simplemente introduciremos la dirección en la que estén accesibles. La aplicación automáticamente buscará estos archivos e intentará cargar los datos
contenidos en ellos.
Figura 12.5: Opciones de configuración
158
Plataforma educativa basada en realidad aumentada y dispositivos móviles
12.2. Guı́a de uso
Salir de la aplicación
El usuario para cerrar la aplicación deberá ir al Menú y elegir la opción “Salir ”. Antes
de realizarlo le preguntará si realmente quiere o no abandonar la aplicación.
Figura 12.6: Salir de la aplicación
Plataforma educativa basada en realidad aumentada y dispositivos móviles
159
12. Manual de usuario
160
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 13
User’s manual
13.1.
Introduction
Having reached this point, it is now the moment to mark an inflection point and to
abandon technical terms and concentrate on what will be an analytic and totally practical
description of the general functioning of the platform from the user’s point of view.
In the following sections, all the actions that can be done by the users with the tools
will be described one by one.
13.2.
Use guide
To carry out all functions of the platform we will describe the options that we offer.
Figura 13.1: Main application screen
161
13. User’s manual
After completing the installation and start the application, the camera starts capturing
images. Shown in figure 13.1
The display of device shows the images captured by the camera in real time.
If the camera detects a pattern of those charged in the application or whether we are in
a geographic location close to some set in the configuration files, it will overlap the object
with the associated information.
At the bottom of the screen can see a display space for comments of the objects. These
comments will be displayed when the object is shown
It may make a series of transformations on the object’s state (either moving or doing
zoom) and the results will be displayed on that screen.
13.2.1.
User actions on objects
The user can perform a number of actions on objects you are viewing:
Move an object
Scale an object
Move an object
To move an object, you must drag your finger across the screen to the desired position.
Figura 13.2: Moving an object
Scale an object
You can also scale an object. You should make a gesture typical of tactil interfaces:
pinch zoom. To increase the size of the object, we must place two fingers on the screen
without lifting, driving them away. Otherwise, if the fingers are close, the object will
decrease in size.
162
Plataforma educativa basada en realidad aumentada y dispositivos móviles
13.2. Use guide
Figura 13.3: Scaling an object
13.2.2.
Menu options of the application
The application will also have a menu where you can perform a number of actions:
Figura 13.4: Menu options of the application
Set configuration preferences
Exit of the application
To launch the menu, almost all Android mobile devices have a dedicated key. These
items are normally displayed as a pop-up in the bottom of the screen when you press that
key.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
163
13. User’s manual
Set configuration preferences
The data loaded into the application shall be external to it, and therefore configurables.
To do this the user can modify through the Settings option.
There are two configuration files:
File of patterns and locations: it specifies patterns which will recognize the
camera as well as the locations that will detect the application. Each have an associated object.
Objects’file: data files such as a description, a three-dimensional object file, a
texture and a sound.
The application can process other configuration files and so, load other data.
For each, simply must introduce an accessible web direction. automatically the application will search for these files and attempt to load the data contained in them.
Figura 13.5: Configuration options
164
Plataforma educativa basada en realidad aumentada y dispositivos móviles
13.2. Use guide
Exit of the application
The user to close the application should go to Menu and choose “Exit”. Before, it ask
if you really do or not to leave the application.
Figura 13.6: Exit of the application
Plataforma educativa basada en realidad aumentada y dispositivos móviles
165
13. User’s manual
166
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Capı́tulo 14
Conclusiones y Lı́neas de
Investigación Futuras
Al comienzo del proyecto, si bien el cómo se iba a conseguir no estaba del todo definido,
el qué se pretendı́a alcanzar estaba claro. Se querı́a una plataforma que permitiera realizar
una exposición visual, centrada en el ámbito educativo aunque no centrado exclusivamente
en éste, ya que se podrı́a aplicar en muchos otros escenarios.
Con este proyecto nace una plataforma basada en realidad aumentada, una tecnologı́a
que añade información extra al mundo en el que vivimos; no nos aı́sla del mundo y nos
sumerge en otro como en el caso de la realidad virtual.
La plataforma proporciona una solución completa en la que se puede decidir qué objetos,
cómo y donde mostrarlos. La información que se obtiene de cada objeto aumentará considerablemente a la que tenı́amos inicialmente.
En nuestras exposiciones, a la vez que se visualiza el objeto en 3D, se recibe un
comentario de manera visual y sonora.
Otra de las ventajas que ofrece la plataforma es que en innumerables ocasiones muchos
de los objetos no se pueden ver fı́sicamente. Con esta plataforma se podrá paliar la falta
de objetos fı́sicos en un lugar o incluso se podrá mostrar cualquier otro que se estime
oportuno.
Todas las exposiciones se generan dinámicamente debido a la independencia de la plataforma con los datos que componen cada una de ellas.
De este modo, crear un recorrido mostrando ciertos objetos se harı́a de forma muy
sencilla modificando los ficheros de configuración.
Gracias a nuestro sistema se puede disponer de un sistema interactivo de aprendizaje
que transformará a los usuarios de meros espectadores pasivos en actores y jugadores
activos. Los usuarios se involucrarán más en la exposición haciéndola más entretenida y
más fructı́fera.
167
14. Conclusiones y Lı́neas de Investigación Futuras
La forma de interacción de los visitantes con las obras se realizará a través de dispositivos móviles que se comunicarán con un servidor por medio de redes inalámbricas.
Se podrá, entre otras cosas, modificar ciertas propiedades de los objetos como son la
posición o la escala..
Esta información, cuando se recibe en los dispositivos moviles, se recibe de forma
visual y sonora.
La solución basada en las técnicas de Realidad Aumentada permite evitar el uso de
hardware costoso que podrı́a ser un obstáculo serio para la mayorı́a de los usuarios. La
gran mayorı́a de la población ya tiene un dispositivo móvil con estas caracterı́sticas o
acceso a uno de ellos.
Además, al utilizar dispositivos móviles se permite una mayor movilidad e independencia a los usuarios.
Por lo tanto, cualquier persona, institución o empresa (incluso con recursos financieros
limitados) podrı́an adaptar la plataforma y aprovecharse de los logros de la Realidad
Aumentada.
La mayor dificultad en la investigación para la realización del proyecto se debe al uso
de una tecnologı́a nueva, poco usual y de la que hasta el momento no se ha investigado
todo lo suficiente para las grandes posibilidades que ofrece.
Éste es el momento de reflexionar sobre las tecnologı́as que se aplicaron para la consecución de los objetivos, todas ellas totalmente actuales y, de las que o bien se carece o es
muy escasa la formación académica de la que se dispone, habiendo por tanto detrás del
proyecto una labor importante tanto de investigación como de aprendizaje.
En cuanto a los problemas encontrados en el desarrollo cabe destacar la renderización
de archivos con modelos 3D en un dispositivo móvil con Android. Para solventar este
problema se han utilizado librerı́as que hemos modificado para conseguir nuestro objetivo.
Algunas de las librerı́as son NyARToolkit y min3d.
Otro asunto complicado en el desarrollo ha sido la comunicación de los clientes con los
servidores en los que se encuentren los archivos de configuración.
Y por último, también ha sido laborioso implementar los gestos para manejar los objetos
a través de la interfaz táctil.
Una vez concluido este proyecto, quedan abiertas varias vı́as para seguir trabajando
sobre el mismo, con el objetivo de mejorarlo.
168
Plataforma educativa basada en realidad aumentada y dispositivos móviles
A continuación, se detalla una lista de mejoras que se podrı́an incorporar en futuras
versiones de la plataforma:
1. Portal web: En este portal los usuarios podrı́an subir exposiciones completas, es
decir, todos los elementos necesarios para realizarlas, como son los patrones o las
posiciones, los objetos tridimensionales, la información de los mismos, etc. . . De esta
forma los visitantes podrán elegir qué ver desde cualquier lugar.
2. Un editor para las visitas: En nuestra aplicación para hacer un cambio sobre
la exposición, se deberı́a de editar el fichero XML correspondiente, para luego ver
la información cambiada. Una buena ampliación, serı́a la posibilidad de tener un
editor para generar estos cambios. En este editor se podrı́a modificar los patrones y
localizaciones, los objetos, ası́ como la información de éstos.
3. Gestor de comentarios: Una posible ampliación serı́a que de cada objeto, los
usuarios pudiesen dejar comentarios opinando sobre ellos. Ası́ los futuros usuarios
podrı́an ver los comentarios depositados en cada objeto hasta el momento.
4. Investigar en otros tipos de reconocimiento de imágenes: Se ha pensado en
aplicar en un futuro otro tipo de reconocimiento de imágenes como pueden ser el
reconocimiento facial o reconocimiento de gestos.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
169
14. Conclusiones y Lı́neas de Investigación Futuras
170
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Bibliografı́a
[1] Woodrow Barfield and Thomas Caudell. Fundamentals of Wearable Computers and
Augumented Reality. Lawrence Erlbaum Associates, Inc., Mahwah, NJ, USA, 2000.
[2] Jerome S Bruner. Desarrollo cognitivo y educación. Morata, Madrid, 1988.
[3] P. Abrahamsson. Keynote: Mobile software development - the business opportunity
of today. 2005.
[4] Tecnologı́as
3g.
que-es-3g-tecnologia-movil-3g.
http://www.malavida.com/blog/70/
[5] Magicbook.
http://www.hitlabnz.org/index.php/research/
augmented-reality?view=project&task=show&id=54.
[6] Arise. http://www.arise-project.org/.
[7] Learnar. http://www.learnar.org/.
[8] Scimorph. http://scimorph.greatfridays.com/.
[9] Zooburst. http://www.zooburst.com/.
[10] Arsights. http://www.arsights.com/.
[11] Wikitude. http://www.wikitude.com/en/.
[12] Layar. http://www.layar.com/.
[13] Mtra. Rocı́o Ruiz Rodarte. Museografı́a virtual para el museo de sitio de calakmul.
Dı́a Cudi de Mundos Virtuales.
[14] Rafal Wojciechowski, Krzysztof Walczak, Martin White, and Wojciech Cellary. Building virtual and augmented reality museum exhibitions. In Web3D ’04: Proceedings
of the ninth international conference on 3D Web technology, pages 135–144, New
York, NY, USA, 2004. ACM Press.
[15] Vassilios Vlahakis, Nikolaos Ioannidis, John Karigiannis, Manolis Tsotros, Michael
Gounaris, Didier Stricker, Tim Gleue, Patrick Daehne, and Luis Almeida. Archeoguide: An augmented reality guide for archaeological sites. IEEE Computer Graphics
and Applications, 22(5):52–60, 2002.
171
BIBLIOGRAFÍA
[16] Daniel Pletinckx, Dirk Callebaut, Ann E. Killebrew, and Neil A. Silberman. Virtualreality heritage presentation at ename. IEEE MultiMedia, 7(2):45–48, 2000.
[17] W. Scott Means Elliotte Rusty Harold. XML imprescindible. Anaya, 2004.
[18] Xml schema por el w3c. http://www.w3.org/XML/Schema.
[19] Obtaining user location in android. http://developer.android.com/guide/
topics/location/obtaining-user-location.html.
[20] Librerı́a min3d de android. http://code.google.com/p/min3d/.
[21] Dave Shreiner. OpenGL programming guide. Addison-Wesley, Upper Saddle River,
NJ, 2006.
[22] Mediaplayer de android. http://developer.android.com/reference/android/
media/MediaPlayer.html.
[23] Nyartoolkit project. http://nyatla.jp/nyartoolkit/wp/.
[24] Application resources en android. http://developer.android.com/guide/topics/
resources/index.html.
[25] Erich Gamma, Richard Helm, Ralph Johnson, and John Vlissides. Design patterns:
elements of reusable object-oriented software. Addison-Wesley Longman Publishing
Co., Inc., Boston, MA, USA, 1995.
[26] Junit 4. http://www.junit.org/.
[27] Junit en android.
http://developer.android.com/guide/topics/testing/
testing_android.html.
[28] Android market. https://market.android.com/?hl=es.
[29] Code examples for working with touch input in android. http://code.google.com/
p/android-touchexample/source/browse/trunk/src/com/example/android/
touchexample/TouchExampleView.java.
[30] Manual de latex. http://es.wikibooks.org/wiki/Manual_de_LaTeX.
[31] Tratamiento de XML en Android con DOM. http://www.sgoliver.net/blog/?p=
1588.
172
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Apéndice A
Tecnologı́as
En este resumen, se realizará una breve descripción de las tecnologı́as utilizadas para
el desarrollo de éste proyecto.
A.1.
Android
Android es un sistema operativo inicialmente pensado para teléfonos móviles, al igual
que iOS, Symbian y Blackberry OS. Lo que lo hace diferente es que está basado en Linux,
un núcleo de sistema operativo libre, gratuito y multiplataforma.
El sistema permite programar aplicaciones en una variación de Java llamada Dalvik. El
sistema operativo proporciona todas las interfaces necesarias para desarrollar aplicaciones
que accedan a las funciones del teléfono (como el GPS, las llamadas, la agenda, etc.) de
una forma muy sencilla en un lenguaje de programación muy conocido como es Java.
Esta sencillez, junto a la existencia de herramientas de programación gratuitas, hacen que una de las cosas más importantes de este sistema operativo sea la cantidad de
aplicaciones disponibles, que extienden casi sin lı́mites la experiencia del usuario.
A.1.1.
Historia
Android era un sistema operativo para móviles prácticamente desconocido hasta que
en 2005 Google lo compró. Hasta noviembre de 2007 sólo hubo rumores, pero en esa fecha
se lanzó la Open Handset Alliance, que agrupaba a muchos fabricantes de teléfonos
móviles, chipsets y Google y se proporcionó la primera versión de Android, junto con el
SDK para que los programadores empezaran a crear sus aplicaciones para este sistema.
Aunque los inicios fueran un poco lentos, debido a que se lanzó antes el sistema operativo
que el primer móvil, rápidamente se ha colocado como el sistema operativo de móviles
más vendido del mundo, situación que se alcanzó en el último trimestre de 2010.
173
A. Tecnologı́as
Figura A.1: Sistema operativo Android
En febrero de 2011 se anunció la versión 3.0 de Android, llamada con nombre en clave
Honeycomb, que está optimizado para tabletas en lugar de teléfonos móviles. Por tanto
Android ha transcendido los teléfonos móviles para trascender a dispositivos más grandes.
Una evolución de esta versión ha sido la 4.0 de Android lanzada en marzo de 2012,
llamada Ice Cream Sandwich que unifica el uso en cualquier dispositivo, tanto en teléfonos,
tablets, televisores, netbooks, etc. . .
Al final podemos resumir que Android es la forma de afrontar la telefonı́a móvil por
parte de Google, que entiende estos dispositivos como una forma de estar conectado
constantemente a Internet. Las aplicaciones de Google que vienen preinstaladas en el
teléfono, permiten acceder a los servicios de Google de forma muy integrada, aparte de la
174
Plataforma educativa basada en realidad aumentada y dispositivos móviles
A.2. JAVA
tienda de aplicaciones Google Play que posee más de 400.000 (de las cuales, dos tercios
son gratuitas) y permite instalarlas de una forma muy sencilla.
A.2.
JAVA
Java es un lenguaje de programación orientado a objetos desarrollado por Sun Microsystems a principios de los años 1990. Las aplicaciones Java están tı́picamente compiladas en un bytecode, aunque la compilación en código máquina nativo también es posible.
En el tiempo de ejecución, el bytecode es normalmente interpretado o compilado a código
nativo para la ejecución, aunque la ejecución directa por hardware del bytecode por un
procesador Java también es posible.
Sun Microsystems proporciona una implementación GNU General Public License de
un compilador Java y una máquina virtual Java, conforme a las especificaciones del Java Community Process, aunque la biblioteca de clases que se requiere para ejecutar los
programas Java no es software libre.
Entre noviembre de 2006 y mayo de 2007, Sun Microsystems liberó la mayor parte de
sus tecnologı́as Java bajo la licencia GNU GPL, de acuerdo con las especificaciones del
Java Community Process, de tal forma que prácticamente todo el Java de Sun es ahora
software libre.
A.3.
NyArtoolkit
NyArtoolkit [23] es una variante de ARToolKit. Es una biblioteca que permite la creación de aplicaciones de realidad aumentada, en las que se sobrepone imágenes virtuales
al mundo real.
Para ello, utiliza las capacidades de seguimiento de vı́deo, con el fin de calcular, en
tiempo real, la posición de la cámara y la orientación relativa a la posición de los marcadores fı́sicos. Una vez que la posición de la cámara real se sabe, la cámara virtual se
pueden colocar en el mismo punto y modelos 3d son sobrepuestos exactamente sobre el
marcador real. Ası́ ARToolKit resuelve dos de los principales problemas en la realidad
aumentada, el seguimiento de punto de vista y la interacción objeto virtual.
A.4.
min3D
min3D [20] es una librerı́a para Android que usa Java y OpenGL y es compatible con
dispositivos que tengan Android v1.5/OpenGL ES 1.0 y superior.
Se asimila mucho a la API de OpenGL ası́ que es ideal para conocer ésta y a la vez
proporcionar una funcionalidad similar en una librerı́a de clases orientada a objetos.
En la plataforma se utiliza para la representación de los objetos tridimensionales.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
175
A. Tecnologı́as
A.5.
Tecnologı́as XML
A.5.1.
XML
Esta tecnologı́a [17] basada en etiquetas permite un medio homogéneo, sencillo y claro de
representación e intercambio de la información. Entorno a esta tecnologı́a se desarrollan
otras muchas, de tal forma que resulta totalmente viable la construcción de sitios web
potentes y totalmente funcionales utilizando únicamente este lenguaje de etiquetado.
Utilizamos XML por su simplicidad, potencia, herramientas existentes en Java para
procesar el documento, extensibilidad de cara a nuevas versiones, el soporte de las herramientas para crear una interfaz gráfica, etcétera. . .
Utilizando esta tecnologı́a, la plataforma se convierte en un sistema fácil de entender,
fácil de modificar y fácil de recordar.En los ficheros de xml, se almacena toda la información sobre la configuración y las imagenes de la exposción.
A.5.2.
XML Schema
XML Schema es un lenguaje de esquema utilizado para describir la estructura y las
restricciones de los contenidos de los documentos XML de una forma muy precisa, más
allá de las normas sintácticas impuestas por el propio lenguaje XML. Se consigue ası́ una
percepción del tipo de documento con un nivel alto de abstracción. Fue desarrollado por
el World Wide Web Consortium (W3C) y alcanzó el nivel de recomendación en mayo de
2001.
No nos bastará un documento bien construido en XML para nuestro propositos, ya
que este podrı́a tener diferentes estructuras, queremos que nuestros ficheros tengan una
estructura perfectamente definida. Para ello utilizaremos un XSD para validar los ficheros.
A.5.3.
DOM
El DOM [31] (Modelo de Objeto de Documento) es el medio estándar desarrollador
por el W3C por el cual acceder y manipular un documento XML. Un buen DOM debe
de ser completo, permitiendo la reconstrucción del documento completo desde el propio
modelo y permitir el acceso a cualquiera de sus partes, además de métodos que permitan
manipular, añadir y eliminar en el documento original.
Las APIs DOM ya sean escritas en Visual Basic, C o Java expondrán al programador
una misma serie de métodos y atributos. De las opciones posibles nosotros vamos a utilizar
la implementación Java del propio consorcio W3C.
En nuestro caso vamos a poblar esa implementación DOM con un analizador SAX,
y luego solamente accederemos al contenido del documento para crear los objetos que
definen la exposición.
176
Plataforma educativa basada en realidad aumentada y dispositivos móviles
A.6. LATEX
A.6.
LATEX
LATEX[30] es un sistema pensado para la edición de textos cientı́ficos. Concretamente
se trata de un paquete de macros que permite componer e imprimir un documento con
una gran calidad basándose, para ello, en una serie de patrones previamente definidos.
Además permite su transformación al formato PDF, formato destinado a la impresión por
antonomasia.
LATEX, una vez dominado, nos permite realizar publicaciones con un acabado final espectacular.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
177
A. Tecnologı́as
178
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Apéndice B
Documentación
Jerarquı́a de Clases
Clases
• java.lang.Object
• android.content.Context
• android.content.ContextWrapper
• android.view.ContextThemeWrapper
• android.app.Activity
• android.app.ListActivity
• android.preference.PreferenceActivity
•
com.ivanlorenzo.gui.preferences.TFGPreferencesActivity (in B.11.1, page 272)
• com.ivanlorenzo.gui.TFGARActivity (in B.4.13, page 227)
• android.os.Handler
• com.ivanlorenzo.gui.TFGARActivity.MainHandler (in B.4.14, page 241)
• android.view.ScaleGestureDetector.SimpleOnScaleGestureListener
• com.ivanlorenzo.gui.TFGARActivity.ScaleListener (in B.4.16, page 243)
• com.ivanlorenzo.connection.ConnectionStatus (in B.10.1, page 271)
• com.ivanlorenzo.data.CompilerGenerator (in B.9.2, page 260)
• com.ivanlorenzo.data.GeoLocation (in B.9.3, page 261)
• com.ivanlorenzo.data.KnowledgeBase (in B.9.4, page 263)
• com.ivanlorenzo.data.Pattern (in B.9.6, page 268)
• com.ivanlorenzo.data.XMLCompiler (in B.9.7, page 270)
• com.ivanlorenzo.data.AugmentedRealityXMLCompiler (in B.9.1, page 258)
• com.ivanlorenzo.data.ObjectsXMLCompiler (in B.9.5, page 266)
• com.ivanlorenzo.data.objects.Object3D (in B.5.3, page 247)
• com.ivanlorenzo.data.objects.MD2Object (in B.5.2, page 246)
• com.ivanlorenzo.data.objects.Max3DSObject (in B.5.1, page 245)
• com.ivanlorenzo.data.objects.OBJObject (in B.5.6, page 252)
• com.ivanlorenzo.data.objects.Object3D.File3D (in B.5.4, page 250)
• com.ivanlorenzo.data.objects.Object3DCreator (in B.5.5, page 251)
B. Documentación
• com.ivanlorenzo.data.objects.audio.Audio (in B.1.1, page 181)
• com.ivanlorenzo.data.objects.audio.LocalAudio (in B.1.2, page 182)
• com.ivanlorenzo.data.objects.audio.RemoteAudio (in B.1.4, page 185)
• com.ivanlorenzo.gui.ARToolkitDrawer (in B.4.2, page 216)
• com.ivanlorenzo.gui.R (in B.4.4, page 220)
• com.ivanlorenzo.gui.R.attr (in B.4.5, page 220)
• com.ivanlorenzo.gui.R.drawable (in B.4.6, page 221)
• com.ivanlorenzo.gui.R.id (in B.4.7, page 221)
• com.ivanlorenzo.gui.R.layout (in B.4.8, page 222)
• com.ivanlorenzo.gui.R.menu (in B.4.9, page 223)
• com.ivanlorenzo.gui.R.raw (in B.4.10, page 223)
• com.ivanlorenzo.gui.R.string (in B.4.11, page 224)
• com.ivanlorenzo.gui.R.xml (in B.4.12, page 226)
• com.ivanlorenzo.gui.TFGARActivity.PreviewCallback (in B.4.15, page 242)
• com.ivanlorenzo.gui.Util (in B.4.17, page 243)
• com.ivanlorenzo.location.LocationData (in B.7.2, page 255)
• com.ivanlorenzo.location.observer.ARObservable (in B.3.3, page 213)
• com.ivanlorenzo.data.objects.audio.MediaPlayerAdapter (in B.1.3, page 183)
• com.ivanlorenzo.location.ARLocationListener (in B.7.1, page 254)
• com.ivanlorenzo.parser.AParser (in B.2.2, page 187)
• com.ivanlorenzo.parser.MD2Parser (in B.2.8, page 200)
• com.ivanlorenzo.parser.Max3DSParser (in B.2.7, page 196)
• com.ivanlorenzo.parser.ObjParser (in B.2.10, page 204)
• com.ivanlorenzo.parser.AParser.BitmapAsset (in B.2.3, page 191)
• com.ivanlorenzo.parser.AParser.Material (in B.2.4, page 192)
• com.ivanlorenzo.parser.AParser.TextureAtlas (in B.2.5, page 193)
• com.ivanlorenzo.parser.AParser.TextureAtlas.BitmapHeightComparer (in B.2.6, page
195)
•
•
•
•
com.ivanlorenzo.parser.MD2Parser.MD2Header (in B.2.9, page 202)
com.ivanlorenzo.parser.ParseObjectData (in B.2.12, page 207)
com.ivanlorenzo.parser.Parser (in B.2.13, page 209)
java.lang.Enum
• com.ivanlorenzo.gui.ARStatus (in B.4.1, page 214)
• com.ivanlorenzo.gui.MessageWhat (in B.4.3, page 219)
• com.ivanlorenzo.gui.dialogs.DialogType (in B.8.1, page 257)
• com.ivanlorenzo.parser.Parser.Type (in B.2.14, page 210)
• min3d.parser.ParseObjectFace
• com.ivanlorenzo.parser.ObjParser.ObjFace (in B.2.11, page 206)
Interfaces
• com.ivanlorenzo.location.observer.IARObservable (in B.3.1, page 212)
• com.ivanlorenzo.location.observer.IARObserver (in B.3.2, page 212)
• com.ivanlorenzo.parser.IParser (in B.2.1, page 187)
180
Plataforma educativa basada en realidad aumentada y dispositivos móviles
B.1. Paquete com.ivanlorenzo.data.objects.audio
Excepciones
• java.lang.Object
• java.lang.Throwable
• java.lang.Exception
• com.ivanlorenzo.data.exceptions.LoadXMLException
•
com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException
B.1.
Paquete com.ivanlorenzo.data.objects.audio
B.1.1.
Clase Audio
Clase abstracta Audio que tendrá un método abstracto que devolverá una objeto de la
clase MediaPlayerAdapter
Declaración
public abstract class Audio
extends java.lang.Object
Field summary
id Identificador del objeto al que pertenece el audio
Constructor summary
Audio()
Method summary
getId() Devuelve el identificador del objeto
getMediaPlayer(Context) Método que devuelve la instancia de la clase
MediaPlayerAdapter
Atributos
int id
• Identificador del objeto al que pertenece el audio
Constructores
Audio
public Audio( )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
181
– LocalAudio
Métodos
getId
public int getId( )
• Description
Devuelve el identificador del objeto
• Returns – El identificador del objeto al que pertenece el audio
getMediaPlayer
public abstract MediaPlayerAdapter getMediaPlayer( android.content.Context ctx )
• Description
Método que devuelve la instancia de la clase MediaPlayerAdapter
• Parameters
◦ ctx – Contexto de la aplicación
• Returns – Un objeto MediaPlayerAdapter
B.1.2.
Clase LocalAudio
Clase que hereda de Audio. Se utilizará para representar audios que estén en el
dispositivo
Declaración
public class LocalAudio
extends com.ivanlorenzo.data.objects.audio.Audio (in B.1.1, page 181)
Constructor summary
LocalAudio(int) Constructor
Method summary
getMediaPlayer(Context)
Constructores
LocalAudio
public LocalAudio( int id )
• Description
Constructor
• Parameters
◦ id – Identificador del objeto
182
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– MediaPlayerAdapter
Métodos
getMediaPlayer
public abstract MediaPlayerAdapter getMediaPlayer( android.content.Context ctx )
• Description copied from Audio (in B.1.1, page 181)
Método que devuelve la instancia de la clase MediaPlayerAdapter
• Parameters
◦ ctx – Contexto de la aplicación
• Returns – Un objeto MediaPlayerAdapter
Miembros heredados de la clase com.ivanlorenzo.data.objects.audio.Audio (in
B.1.1, page 181)
public int getId( )
public abstract MediaPlayerAdapter getMediaPlayer( android.content.Context ctx )
id
B.1.3.
Clase MediaPlayerAdapter
Clase adaptadora del patrón Adapter que adapta la clase MediaPlayer y además es un
sujeto observable ya que cuando finalice el audio deberá avisar a sus observadores para
que realicen las acciones oportunas
Declaración
public class MediaPlayerAdapter
extends com.ivanlorenzo.location.observer.ARObservable (in B.3.3, page 213)
Field summary
isPlaying Variable que nos indicará si está sonando o no
loop Variable que nos indica si está marcado como repetición
mediaPlayer MediaPlayer que vamos a adaptar
resID Identificador del player
Constructor summary
MediaPlayerAdapter(Context, int) Constructor de la clase en el que se
crea un objeto MediaPlayer y gestiona el evento onCompletion, que
informará cuando finalice el audio
MediaPlayerAdapter(Context, String, int) Constructor de la clase
usado para reproducir un audio remoto, en el que se crea un objeto de la
clase MediaPlayer y se le establece un datasource que será la url con el
fichero a reproducir.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
183
– MediaPlayerAdapter
Method summary
getResID() Devuelve el identificador del audio
loop() Método que pone el reproductor en modo repetición
notifyObservers()
play() Método que inicia la reproducción del audio
release() Libera el reproductor
stop() Método que detiene la reproducción del audio
Atributos
private android.media.MediaPlayer mediaPlayer
• MediaPlayer que vamos a adaptar
private int resID
• Identificador del player
private boolean isPlaying
• Variable que nos indicará si está sonando o no
private boolean loop
• Variable que nos indica si está marcado como repetición
Constructores
MediaPlayerAdapter
public MediaPlayerAdapter( android.content.Context ctx, int resID )
• Description
Constructor de la clase en el que se crea un objeto MediaPlayer y gestiona el evento
onCompletion, que informará cuando finalice el audio
• Parameters
◦ ctx – Contexto de la aplicación
◦ resID – Identificador del audio
MediaPlayerAdapter
public MediaPlayerAdapter( android.content.Context ctx, java.lang.String url,
int id )
• Description
Constructor de la clase usado para reproducir un audio remoto, en el que se crea un objeto
de la clase MediaPlayer y se le establece un datasource que será la url con el fichero a
reproducir. También gestiona el evento onCompletion que informará cuando finalice el
audio.
• Parameters
◦ ctx – Contexto de la aplicación
◦ url – Dirección del fichero a reproducir
◦ id – Identificador del audio
184
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– RemoteAudio
Métodos
getResID
public int getResID( )
• Description
Devuelve el identificador del audio
• Returns – El identificador
loop
public synchronized void loop( )
• Description
Método que pone el reproductor en modo repetición
notifyObservers
void notifyObservers( )
• Description copied from com.ivanlorenzo.location.observer.IARObservable (in
B.3.1, page 212)
Cuando se produzca un cambio en él, notificará a todos los observadores a través de este
método
play
public synchronized void play( )
• Description
Método que inicia la reproducción del audio
release
public void release( )
• Description
Libera el reproductor
stop
public synchronized void stop( )
• Description
Método que detiene la reproducción del audio
Miembros heredados de la clase com.ivanlorenzo.location.observer.ARObservable
(in B.3.3, page 213)
public void addObserver( IARObserver observer )
protected data
public void notifyObservers( )
protected observers
public void removeObserver( IARObserver observer )
B.1.4.
Clase RemoteAudio
Representa un audio localizado en una ubicación remota. Hereda de la clase Audio
Plataforma educativa basada en realidad aumentada y dispositivos móviles
185
– RemoteAudio
Declaración
public class RemoteAudio
extends com.ivanlorenzo.data.objects.audio.Audio (in B.1.1, page 181)
Field summary
path URL donde se encuentra el fichero remotamente
Constructor summary
RemoteAudio(String, int) Constructor
Method summary
getMediaPlayer(Context)
Atributos
private java.lang.String path
• URL donde se encuentra el fichero remotamente
Constructores
RemoteAudio
public RemoteAudio( java.lang.String path, int id )
• Description
Constructor
• Parameters
◦ path – URL remota
◦ id – Identificador del objeto que tiene asociado el audio
Métodos
getMediaPlayer
public abstract MediaPlayerAdapter getMediaPlayer( android.content.Context ctx )
• Description copied from Audio (in B.1.1, page 181)
Método que devuelve la instancia de la clase MediaPlayerAdapter
• Parameters
◦ ctx – Contexto de la aplicación
• Returns – Un objeto MediaPlayerAdapter
186
Plataforma educativa basada en realidad aumentada y dispositivos móviles
B.2. Paquete com.ivanlorenzo.parser
Miembros heredados de la clase com.ivanlorenzo.data.objects.audio.Audio (in
B.1.1, page 181)
public int getId( )
public abstract MediaPlayerAdapter getMediaPlayer( android.content.Context ctx )
id
B.2.
Paquete com.ivanlorenzo.parser
B.2.1.
Interfaz IParser
Interface para los parsers de objetos 3D basada en min3d
Declaración
public interface IParser
Method summary
getParsedAnimationObject() Devuelve el objeto animado parseado
getParsedObject() Devuelve el objeto parseado
parse() Empieza a parsear el objeto 3d
Métodos
getParsedAnimationObject
min3d.animation.AnimationObject3d getParsedAnimationObject( )
• Description
Devuelve el objeto animado parseado
• Returns – El objeto animado
getParsedObject
min3d.core.Object3dContainer getParsedObject( )
• Description
Devuelve el objeto parseado
• Returns – El objeto parseado
parse
void parse( )
• Description
Empieza a parsear el objeto 3d
B.2.2.
Clase AParser
Clase abstracta Parser con la funcionalidad básica del proceso de parseo.
Plataforma educativa basada en realidad aumentada y dispositivos móviles
187
– AParser
Declaración
public abstract class AParser
extends java.lang.Object
implements IParser
Field summary
co
currentMaterialKey
fileIn
firstObject
generateMipMap
materialMap
normals
packageID
parseObjects
remoteLocation
resourceID
resources
texCoords
textureAtlas
url
vertices
Constructor summary
AParser() Constructor básico
AParser(Resources, String, Boolean) Constructor del parser que recibe
el recurso especı́fico
AParser(String) Constructor en el que se le pasa la dirección url del
objeto a parsear
Method summary
cleanup() Borra todas las estructuras de datos
getParsedAnimationObject() Devuelve el objeto animado parseado.
getParsedObject() Devuelve el objeto parseado.
parse() Realiza el parseo del objeto.
readFloat(InputStream) Lee un número flotante de caracteres de un
InputStream
readInt(InputStream) Lee un entero de un InputStream
readShort(InputStream) Lee un short de caracteres de un InputStream
readString(InputStream) Lee una cadena de caracteres de un
InputStream
188
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– AParser
Atributos
protected android.content.res.Resources resources
protected java.lang.String resourceID
protected java.lang.String packageID
protected java.lang.String currentMaterialKey
protected java.util.ArrayList parseObjects
protected ParseObjectData co
protected boolean firstObject
protected AParser.TextureAtlas textureAtlas
protected java.util.ArrayList vertices
protected java.util.ArrayList texCoords
protected java.util.ArrayList normals
protected boolean generateMipMap
protected java.util.HashMap materialMap
protected java.io.InputStream fileIn
protected boolean remoteLocation
protected java.lang.String url
Constructores
AParser
public AParser( )
• Description
Constructor básico
AParser
public AParser( android.content.res.Resources resources, java.lang.String
resourceID, java.lang.Boolean generateMipMap )
• Description
Constructor del parser que recibe el recurso especı́fico
• Parameters
◦ resources – Los recursos de la aplicación
◦ resourceID – El identificador del recurso a cargar
◦ generateMipMap –
AParser
public AParser( java.lang.String url )
• Description
Constructor en el que se le pasa la dirección url del objeto a parsear
• Parameters
◦ url – Dirección del objeto a parsear
Plataforma educativa basada en realidad aumentada y dispositivos móviles
189
– AParser
Métodos
cleanup
protected void cleanup( )
• Description
Borra todas las estructuras de datos
getParsedAnimationObject
public min3d.animation.AnimationObject3d getParsedAnimationObject( )
• Description
Devuelve el objeto animado parseado. Será sobreescrito en el parseador concreto.
getParsedObject
public min3d.core.Object3dContainer getParsedObject( )
• Description
Devuelve el objeto parseado. Será sobreescrito en el parseador concreto.
parse
public void parse( )
• Description
Realiza el parseo del objeto. Se sobreescribe en el parseador concreto
readFloat
protected float readFloat( java.io.InputStream stream ) throws
java.io.IOException
• Description
Lee un número flotante de caracteres de un InputStream
• Parameters
◦ stream – Flujo de bytes a leer
• Returns – El float leı́do
• Throws
◦ java.io.IOException – En caso de que se produzca alguna excepción
readInt
protected int readInt( java.io.InputStream stream ) throws java.io.IOException
• Description
Lee un entero de un InputStream
• Parameters
◦ stream – Flujo de bytes a leer
• Returns – El entero leı́do
• Throws
◦ java.io.IOException – En caso de que se produzca alguna excepción
readShort
protected int readShort( java.io.InputStream stream ) throws java.io.IOException
• Description
Lee un short de caracteres de un InputStream
• Parameters
◦ stream – Flujo de bytes a leer
190
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– AParser.BitmapAsset
• Returns – El short leı́do
• Throws
◦ java.io.IOException – En caso de que se produzca alguna excepción
readString
protected java.lang.String readString( java.io.InputStream stream ) throws
java.io.IOException
• Description
Lee una cadena de caracteres de un InputStream
• Parameters
◦ stream – Flujo de bytes a leer
• Returns – El string leı́do
• Throws
◦ java.io.IOException – En caso de que se produzca alguna excepción
B.2.3.
Clase AParser.BitmapAsset
Contiene información sobre la textura.
Declaración
protected class AParser.BitmapAsset
extends java.lang.Object
Field summary
bitmap El bitmap de la textura
key El identificador de la textura
resourceID ID del recurso
uOffset U-coordinate offset
uScale U-coordinate scaling value
useForAtlasDimensions
vOffset V-coordinate offset
vScale V-coordinate scaling value
Constructor summary
AParser.BitmapAsset(String, String) Crear un objeto BitmapAsset
Atributos
public android.graphics.Bitmap bitmap
• El bitmap de la textura
public java.lang.String key
• El identificador de la textura
Plataforma educativa basada en realidad aumentada y dispositivos móviles
191
– AParser.Material
public java.lang.String resourceID
• ID del recurso
public float uOffset
• U-coordinate offset
public float vOffset
• V-coordinate offset
public float uScale
• U-coordinate scaling value
public float vScale
• V-coordinate scaling value
public boolean useForAtlasDimensions
Constructores
AParser.BitmapAsset
public AParser.BitmapAsset( java.lang.String key, java.lang.String resourceID
)
• Description
Crear un objeto BitmapAsset
• Parameters
◦ key – Identificador de la textura
◦ resourceID – Identificador del recurso
B.2.4.
Clase AParser.Material
Clase que representa un material para una textura
Declaración
protected class AParser.Material
extends java.lang.Object
Field summary
diffuseColor
diffuseTextureMap
name
Constructor summary
AParser.Material(String)
192
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– AParser.TextureAtlas
Atributos
public java.lang.String name
public java.lang.String diffuseTextureMap
public min3d.vos.Color4 diffuseColor
Constructores
AParser.Material
public AParser.Material( java.lang.String name )
B.2.5.
Clase AParser.TextureAtlas
Cuando un modelo contiene una textura por cara, se crea un TextureAltas.
Ası́ combinamos varias texturas
Declaración
protected class AParser.TextureAtlas
extends java.lang.Object
Field summary
atlas El bitmap de la textura
atlasId Identificador del atlas
bitmaps El conjunto de textura combinadas en una
Constructor summary
AParser.TextureAtlas() Crear una instancia de una TextureAtlas
Method summary
addBitmapAsset(AParser.BitmapAsset) Añade un bitmap al atlas
addBitmapAssetRemote(AParser.BitmapAsset) Añade un
BitmapAsset
cleanup()
generate() Genera una nueva textureAtlas
getBitmap() Devuelve la textura generada
getBitmapAssetByName(String) Devuelve un bitmap con una textura
determinada
getBitmapAssetByResourceID(String)
getId()
hasBitmaps() Nos indica si el textureAtlas tiene algún bitmap
setId(String)
Plataforma educativa basada en realidad aumentada y dispositivos móviles
193
– AParser.TextureAtlas
Atributos
private java.util.ArrayList bitmaps
• El conjunto de textura combinadas en una
private android.graphics.Bitmap atlas
• El bitmap de la textura
private java.lang.String atlasId
• Identificador del atlas
Constructores
AParser.TextureAtlas
public AParser.TextureAtlas( )
• Description
Crear una instancia de una TextureAtlas
Métodos
addBitmapAsset
public void addBitmapAsset( AParser.BitmapAsset ba )
• Description
Añade un bitmap al atlas
• Parameters
◦ bitmap – Bitmap añadido
addBitmapAssetRemote
public void addBitmapAssetRemote( AParser.BitmapAsset ba )
• Description
Añade un BitmapAsset
• Parameters
◦ ba –
cleanup
public void cleanup( )
generate
public void generate( )
• Description
Genera una nueva textureAtlas
getBitmap
public android.graphics.Bitmap getBitmap( )
• Description
Devuelve la textura generada
• Returns – El atlas generado
194
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– AParser.TextureAtlas.BitmapHeightComparer
getBitmapAssetByName
public AParser.BitmapAsset getBitmapAssetByName( java.lang.String
materialKey )
• Description
Devuelve un bitmap con una textura determinada
• Parameters
◦ materialKey – El nombre de la textura
• Returns – El bitmap devuelto
getBitmapAssetByResourceID
public AParser.BitmapAsset getBitmapAssetByResourceID( java.lang.String
resourceID )
getId
public java.lang.String getId( )
hasBitmaps
public boolean hasBitmaps( )
• Description
Nos indica si el textureAtlas tiene algún bitmap
• Returns – Verdadero si tiene algún bitmap, falso en caso contrario
setId
public void setId( java.lang.String newAtlasId )
B.2.6.
Clase AParser.TextureAtlas.BitmapHeightComparer
Clase que compara el peso de dos bitmaps
Declaración
private class AParser.TextureAtlas.BitmapHeightComparer
extends java.lang.Object
implements java.util.Comparator
Constructor summary
AParser.TextureAtlas.BitmapHeightComparer()
Method summary
compare(AParser.BitmapAsset, AParser.BitmapAsset)
Constructores
AParser.TextureAtlas.BitmapHeightComparer
private AParser.TextureAtlas.BitmapHeightComparer( )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
195
– Max3DSParser
Métodos
compare
public int compare( AParser.BitmapAsset b1, AParser.BitmapAsset b2 )
B.2.7.
Clase Max3DSParser
Parser especı́fico para los objetos Max3DS
Declaración
public class Max3DSParser
extends com.ivanlorenzo.parser.AParser (in B.2.2, page 187)
implements IParser
Field summary
chunkEndOffset
chunkID
currentObjName
endReached
FACES
IDENTIFIER 3DS
MATERIAL
MESH BLOCK
OBJECT BLOCK
TEX FILENAME
TEX MAP
TEX NAME
TEXCOORD
texture
TRI MATERIAL
TRIMESH
VERTICES
Constructor summary
Max3DSParser(Resources, String, boolean) Constructor del parser
Max3DSParser(String, String) Constructor de la clase en el que se le
pasa la dirección del objeto y la textura
Method summary
getParsedObject()
getRemoteTexture(String) Método que devuelve la textura.
parse()
196
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– Max3DSParser
readChunk(InputStream) Lee un pedazo del fichero
readFaces(InputStream) Lee las caras del fichero 3ds
readHeader(InputStream) Lee la cabecera del fichero 3ds
readTexCoords(InputStream) Lee las texturas del fichero 3ds
readTexture(InputStream) Lee una textura del fichero 3ds
readVertices(InputStream) Lee los vértices del fichero 3ds
skipRead(InputStream) Finaliza la lectura del fichero
Atributos
private final int IDENTIFIER 3DS
private final int MESH BLOCK
private final int OBJECT BLOCK
private final int TRIMESH
private final int TRI MATERIAL
private final int VERTICES
private final int FACES
private final int TEXCOORD
private final int TEX MAP
private final int TEX NAME
private final int TEX FILENAME
private final int MATERIAL
private int chunkID
private int chunkEndOffset
private boolean endReached
private java.lang.String currentObjName
private java.lang.String texture
Constructores
Max3DSParser
public Max3DSParser( android.content.res.Resources resources, java.lang.String
resourceID, boolean generateMipMap )
• Description
Constructor del parser
• Parameters
◦ resources – Recursos de la aplicación
◦ resourceID – Identificador del recurso
◦ generateMipMap –
Max3DSParser
public Max3DSParser( java.lang.String url, java.lang.String texture )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
197
– Max3DSParser
• Description
Constructor de la clase en el que se le pasa la dirección del objeto y la textura
• Parameters
◦ url –
◦ texture –
Métodos
getParsedObject
public min3d.core.Object3dContainer getParsedObject( )
• Description copied from AParser (in B.2.2, page 187)
Devuelve el objeto parseado. Será sobreescrito en el parseador concreto.
getRemoteTexture
private java.lang.String getRemoteTexture( java.lang.String objectTexture )
• Description
Método que devuelve la textura. Si en la configuración ya dispone explı́citamente de una,
se devolverá esta, en caso contrario, se devolverá la que tiene asociada el objeto 3d
• Parameters
◦ objectTexture – El nombre de la textura contenida en el fichero 3d
• Returns – La textura remota
parse
public void parse( )
• Description copied from AParser (in B.2.2, page 187)
Realiza el parseo del objeto. Se sobreescribe en el parseador concreto
readChunk
private void readChunk( java.io.InputStream stream ) throws java.io.IOException
• Description
Lee un pedazo del fichero
• Parameters
◦ stream – Stream con los datos a leer
• Throws
◦ java.io.IOException –
readFaces
private void readFaces( java.io.InputStream buffer ) throws java.io.IOException
• Description
Lee las caras del fichero 3ds
• Parameters
◦ buffer – Stream con los datos a leer
• Throws
◦ java.io.IOException –
readHeader
private void readHeader( java.io.InputStream stream ) throws
java.io.IOException
198
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– Max3DSParser
• Description
Lee la cabecera del fichero 3ds
• Parameters
◦ stream – Stream con los datos a leer
• Throws
◦ java.io.IOException –
readTexCoords
private void readTexCoords( java.io.InputStream buffer ) throws
java.io.IOException
• Description
Lee las texturas del fichero 3ds
• Parameters
◦ buffer – Stream con los datos a leer
• Throws
◦ java.io.IOException –
readTexture
private void readTexture( java.io.InputStream stream ) throws
java.io.IOException
• Description
Lee una textura del fichero 3ds
• Parameters
◦ stream – Stream con los datos a leer
• Throws
◦ java.io.IOException –
readVertices
private void readVertices( java.io.InputStream buffer ) throws
java.io.IOException
• Description
Lee los vértices del fichero 3ds
• Parameters
◦ buffer – Stream con los datos a leer
• Throws
◦ java.io.IOException –
skipRead
private void skipRead( java.io.InputStream stream ) throws java.io.IOException
• Description
Finaliza la lectura del fichero
• Parameters
◦ stream – Stream con los datos a leer
• Throws
◦ java.io.IOException –
Miembros heredados de la clase com.ivanlorenzo.parser.AParser (in B.2.2, page
187)
protected void cleanup( )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
199
– MD2Parser
protected co
protected currentMaterialKey
protected fileIn
protected firstObject
protected generateMipMap
public AnimationObject3d getParsedAnimationObject( )
public Object3dContainer getParsedObject( )
protected materialMap
protected normals
protected packageID
public void parse( )
protected parseObjects
protected float readFloat( java.io.InputStream stream ) throws
java.io.IOException
protected int readInt( java.io.InputStream stream ) throws java.io.IOException
protected int readShort( java.io.InputStream stream ) throws java.io.IOException
protected String readString( java.io.InputStream stream ) throws
java.io.IOException
protected remoteLocation
protected resourceID
protected resources
protected texCoords
protected textureAtlas
protected url
protected vertices
B.2.8.
Clase MD2Parser
Parser especı́fico de los objetos MD2
Declaración
public class MD2Parser
extends com.ivanlorenzo.parser.AParser (in B.2.2, page 187)
implements IParser
Field summary
currentTextureName
frames
header
Constructor summary
MD2Parser(Resources, String, boolean) Constructor del parser MD2
MD2Parser(String) Constructor del parser en el que se le pasa la
dirección donde se encontrará el objeto a parsear
Method summary
getFrames(BufferedInputStream, byte[])
getMaterials(BufferedInputStream, byte[])
getParsedAnimationObject()
getTexCoords(BufferedInputStream, byte[])
getTriangles(BufferedInputStream, byte[])
parse()
200
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– MD2Parser
Atributos
private MD2Parser.MD2Header header
private java.lang.String currentTextureName
private min3d.animation.KeyFrame frames
Constructores
MD2Parser
public MD2Parser( android.content.res.Resources resources, java.lang.String
resourceID, boolean generateMipMap )
• Description
Constructor del parser MD2
• Parameters
◦ resources –
◦ resourceID –
◦ generateMipMap –
MD2Parser
public MD2Parser( java.lang.String url )
• Description
Constructor del parser en el que se le pasa la dirección donde se encontrará el objeto a
parsear
• Parameters
◦ url –
Métodos
getFrames
private void getFrames( java.io.BufferedInputStream stream, byte[] bytes )
throws java.io.IOException
getMaterials
private void getMaterials( java.io.BufferedInputStream stream, byte[] bytes )
throws java.io.IOException
getParsedAnimationObject
public min3d.animation.AnimationObject3d getParsedAnimationObject( )
• Description copied from AParser (in B.2.2, page 187)
Devuelve el objeto animado parseado. Será sobreescrito en el parseador concreto.
getTexCoords
private void getTexCoords( java.io.BufferedInputStream stream, byte[] bytes )
throws java.io.IOException
getTriangles
private void getTriangles( java.io.BufferedInputStream stream, byte[] bytes )
throws java.io.IOException
parse
public void parse( )
• Description copied from AParser (in B.2.2, page 187)
Realiza el parseo del objeto. Se sobreescribe en el parseador concreto
Plataforma educativa basada en realidad aumentada y dispositivos móviles
201
– MD2Parser.MD2Header
Miembros heredados de la clase com.ivanlorenzo.parser.AParser (in B.2.2, page
187)
protected void cleanup( )
protected co
protected currentMaterialKey
protected fileIn
protected firstObject
protected generateMipMap
public AnimationObject3d getParsedAnimationObject( )
public Object3dContainer getParsedObject( )
protected materialMap
protected normals
protected packageID
public void parse( )
protected parseObjects
protected float readFloat( java.io.InputStream stream ) throws
java.io.IOException
protected int readInt( java.io.InputStream stream ) throws java.io.IOException
protected int readShort( java.io.InputStream stream ) throws java.io.IOException
protected String readString( java.io.InputStream stream ) throws
java.io.IOException
protected remoteLocation
protected resourceID
protected resources
protected texCoords
protected textureAtlas
protected url
protected vertices
B.2.9.
Clase MD2Parser.MD2Header
Clase que representa la cabecera de los ficheros MD2
Declaración
private class MD2Parser.MD2Header
extends java.lang.Object
Field summary
frameSize
id
numFrames
numGLCommands
numSkins
numTexCoord
numTriangles
numVerts
offsetEnd
offsetFrames
offsetGLCommands
offsetSkins
202
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– ObjParser
offsetTexCoord
offsetTriangles
skinHeight
skinWidth
version
Constructor summary
MD2Parser.MD2Header()
Method summary
parse(InputStream)
Atributos
public int id
public int version
public int skinWidth
public int skinHeight
public int frameSize
public int numSkins
public int numVerts
public int numTexCoord
public int numTriangles
public int numGLCommands
public int numFrames
public int offsetSkins
public int offsetTexCoord
public int offsetTriangles
public int offsetFrames
public int offsetGLCommands
public int offsetEnd
Constructores
MD2Parser.MD2Header
private MD2Parser.MD2Header( )
Métodos
parse
public void parse( java.io.InputStream stream ) throws java.lang.Exception
Plataforma educativa basada en realidad aumentada y dispositivos móviles
203
– ObjParser
B.2.10.
Clase ObjParser
Parser especı́fico de los objetos obj
Declaración
public class ObjParser
extends com.ivanlorenzo.parser.AParser (in B.2.2, page 187)
implements IParser
Field summary
DIFFUSE COLOR
DIFFUSE TEX MAP
FACE
MATERIAL LIB
NEW MATERIAL
NORMAL
OBJECT
TEXCOORD
USE MATERIAL
VERTEX
Constructor summary
ObjParser(Resources, String, boolean) Crea una nueva instancia de un
parser OBJ
ObjParser(String) Crea una nueva instancia de un parser OBJ
Method summary
cleanup()
getParsedObject()
parse()
readMaterialLib(String) Lee el material
Atributos
private final java.lang.String VERTEX
private final java.lang.String FACE
private final java.lang.String TEXCOORD
private final java.lang.String NORMAL
private final java.lang.String OBJECT
private final java.lang.String MATERIAL LIB
204
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– ObjParser
private final java.lang.String USE MATERIAL
private final java.lang.String NEW MATERIAL
private final java.lang.String DIFFUSE COLOR
private final java.lang.String DIFFUSE TEX MAP
Constructores
ObjParser
public ObjParser( android.content.res.Resources resources, java.lang.String
resourceID, boolean generateMipMap )
• Description
Crea una nueva instancia de un parser OBJ
• Parameters
◦ resources – Recursos de la aplicación
◦ resourceID – Identificador del recurso
◦ generateMipMap –
ObjParser
public ObjParser( java.lang.String url )
• Description
Crea una nueva instancia de un parser OBJ
• Parameters
◦ url – Dirección en la que se encuentra el objeto a parsear
Métodos
cleanup
protected void cleanup( )
• Description copied from AParser (in B.2.2, page 187)
Borra todas las estructuras de datos
getParsedObject
public min3d.core.Object3dContainer getParsedObject( )
• Description copied from AParser (in B.2.2, page 187)
Devuelve el objeto parseado. Será sobreescrito en el parseador concreto.
parse
public void parse( )
• Description copied from AParser (in B.2.2, page 187)
Realiza el parseo del objeto. Se sobreescribe en el parseador concreto
readMaterialLib
private void readMaterialLib( java.lang.String libID )
• Description
Lee el material
• Parameters
◦ libID – Identificador del material
Plataforma educativa basada en realidad aumentada y dispositivos móviles
205
– ParseObjectData
Miembros heredados de la clase com.ivanlorenzo.parser.AParser (in B.2.2, page
187)
protected void cleanup( )
protected co
protected currentMaterialKey
protected fileIn
protected firstObject
protected generateMipMap
public AnimationObject3d getParsedAnimationObject( )
public Object3dContainer getParsedObject( )
protected materialMap
protected normals
protected packageID
public void parse( )
protected parseObjects
protected float readFloat( java.io.InputStream stream ) throws
java.io.IOException
protected int readInt( java.io.InputStream stream ) throws java.io.IOException
protected int readShort( java.io.InputStream stream ) throws java.io.IOException
protected String readString( java.io.InputStream stream ) throws
java.io.IOException
protected remoteLocation
protected resourceID
protected resources
protected texCoords
protected textureAtlas
protected url
protected vertices
B.2.11.
Clase ObjParser.ObjFace
Clase privada que representa una cara del objeto
Declaración
private class ObjParser.ObjFace
extends min3d.parser.ParseObjectFace
Constructor summary
ObjParser.ObjFace(String, String, int)
Constructores
ObjParser.ObjFace
public ObjParser.ObjFace( java.lang.String line, java.lang.String materialKey,
int faceLength )
206
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– ParseObjectData
Miembros heredados de la clase min3d.parser.ParseObjectFace
public
public
public
public
public
public
public
B.2.12.
faceLength
hasn
hasuv
materialKey
n
uv
v
Clase ParseObjectData
Clase que contiene la información de un objeto parseado
Declaración
public class ParseObjectData
extends java.lang.Object
Field summary
faces Caras del objeto
name Nombre del objeto
normals Las normales del objeto
numFaces Número de caras
texCoords Coordenadas de las texturas del objeto
vertices Vértices del objeto
Constructor summary
ParseObjectData() Constructor sin parámetros
ParseObjectData(ArrayList, ArrayList, ArrayList) Constructor que
inicializa un objeto parseado
Method summary
calculateFaceNormal(ParseObjectFace) Calcula la normal de un objeto
cleanup() Borra las caras
getParsedObject(AParser.TextureAtlas, HashMap, KeyFrame[])
Devuelve un objeto AnimationObject3d parseado
getParsedObject(HashMap, AParser.TextureAtlas) Devuelve un
Object3d parseado
parseObject(Object3d, HashMap, AParser.TextureAtlas) Parsea un
objeto
Plataforma educativa basada en realidad aumentada y dispositivos móviles
207
– ParseObjectData
Atributos
protected java.util.ArrayList faces
• Caras del objeto
protected int numFaces
• Número de caras
protected java.util.ArrayList vertices
• Vértices del objeto
protected java.util.ArrayList texCoords
• Coordenadas de las texturas del objeto
protected java.util.ArrayList normals
• Las normales del objeto
public java.lang.String name
• Nombre del objeto
Constructores
ParseObjectData
public ParseObjectData( )
• Description
Constructor sin parámetros
ParseObjectData
public ParseObjectData( java.util.ArrayList vertices, java.util.ArrayList
texCoords, java.util.ArrayList normals )
• Description
Constructor que inicializa un objeto parseado
• Parameters
◦ vertices – ArrayList con los vértices
◦ texCoords – ArrayList con las coordenadas de las texturas
◦ normals – ArrayList con las normales del objeto
Métodos
calculateFaceNormal
public void calculateFaceNormal( min3d.parser.ParseObjectFace face )
• Description
Calcula la normal de un objeto
• Parameters
◦ face –
cleanup
protected void cleanup( )
208
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– Parser
• Description
Borra las caras
getParsedObject
public min3d.animation.AnimationObject3d getParsedObject( AParser.TextureAtlas
textureAtlas, java.util.HashMap materialMap, min3d.animation.KeyFrame[] frames
)
• Description
Devuelve un objeto AnimationObject3d parseado
• Parameters
◦ textureAtlas –
◦ materialMap –
◦ frames –
• Returns – Objeto AnimationObject3d parseado
getParsedObject
public min3d.core.Object3d getParsedObject( java.util.HashMap materialMap,
AParser.TextureAtlas textureAtlas )
• Description
Devuelve un Object3d parseado
• Parameters
◦ materialMap –
◦ textureAtlas –
• Returns – Objeto Object3d parseado
parseObject
private void parseObject( min3d.core.Object3d obj, java.util.HashMap
materialMap, AParser.TextureAtlas textureAtlas )
• Description
Parsea un objeto
• Parameters
◦ obj –
◦ materialMap –
◦ textureAtlas –
B.2.13.
Clase Parser
Clase factorı́a de Parsers. Especifica el tipo de parser y devuelve la clase especializada de
parser.
Declaración
public class Parser
extends java.lang.Object
Constructor summary
Parser()
Plataforma educativa basada en realidad aumentada y dispositivos móviles
209
– Parser.Type
Method summary
createParser(Parser.Type, Resources, String, boolean) Crea un
parser de un tipo determinado
createParser(Parser.Type, String, String) Crea un parser de un tipo
determinado
Constructores
Parser
public Parser( )
Métodos
createParser
public static IParser createParser( Parser.Type type,
android.content.res.Resources resources, java.lang.String resourceID, boolean
generateMipMap )
• Description
Crea un parser de un tipo determinado
• Parameters
◦ type – Tipo de parser
◦ resources – Recursos de la aplicación
◦ resourceID – Identificador del recurso
◦ generateMipMap –
• Returns – Parser del tipo correspondiente
createParser
public static IParser createParser( Parser.Type type, java.lang.String url,
java.lang.String texture )
• Description
Crea un parser de un tipo determinado
• Parameters
◦ type – Tipo de parser
◦ url – La dirección url del objeto
◦ texture – La dirección de la textura
• Returns – Parser del tipo correspondiente
B.2.14.
Clase Parser.Type
Enumeración de los tipos de parsers de la aplicación
Declaración
public static final class Parser.Type
extends java.lang.Enum
210
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– IARObservable
Field summary
MAX 3DS
MD2
OBJ
Constructor summary
Parser.Type()
Method summary
valueOf(String)
values()
Atributos
public static final Parser.Type OBJ
public static final Parser.Type MAX 3DS
public static final Parser.Type MD2
Constructores
Parser.Type
private Parser.Type( )
Métodos
valueOf
public static Parser.Type valueOf( java.lang.String name )
values
public static Parser.Type[] values( )
Miembros heredados de la clase java.lang.Enum
protected final Object clone( ) throws CloneNotSupportedException
public final int compareTo( Enum arg0 )
public final boolean equals( Object arg0 )
protected final void finalize( )
public final Class getDeclaringClass( )
public final int hashCode( )
private final name
public final String name( )
private final ordinal
public final int ordinal( )
private void readObject( java.io.ObjectInputStream arg0 ) throws
java.io.IOException, java.lang.ClassNotFoundException
private void readObjectNoData( ) throws java.io.ObjectStreamException
public String toString( )
public static Enum valueOf( Class arg0, String arg1 )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
211
– IARObserver
B.3.
Paquete com.ivanlorenzo.location.observer
B.3.1.
Interfaz IARObservable
Interface genérica Observable del patrón Observer qe tendrá un conjunto de
observadores y notificará a estos cuando se produzca algún cambio de estado
Declaración
public interface IARObservable
Method summary
addObserver(IARObserver) Método que añade un observador a la lista
notifyObservers() Cuando se produzca un cambio en él, notificará a todos
los observadores a través de este método
removeObserver(IARObserver) Borra un observador de la lista
Métodos
addObserver
void addObserver( IARObserver observer )
• Description
Método que añade un observador a la lista
• Parameters
◦ observer – Observador a añadir
notifyObservers
void notifyObservers( )
• Description
Cuando se produzca un cambio en él, notificará a todos los observadores a través de este
método
removeObserver
void removeObserver( IARObserver observer )
• Description
Borra un observador de la lista
• Parameters
◦ observer – Observador a borrar
B.3.2.
Interfaz IARObserver
Interface genérica Observadora del patrón Observer. Este patrón define una dependencia
del tipo uno-a-muchos entre objetos, de manera que cuando uno de los objetos cambia su
estado, el observador se encarga de notificar este cambio a todos los otros dependientes.
212
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– ARObservable
Declaración
public interface IARObserver
Method summary
update(T) Realiza los cambios oportunos en el observador pasándole un
parámetro genérico
Métodos
update
void update( java.lang.Object subject )
• Description
Realiza los cambios oportunos en el observador pasándole un parámetro genérico
• Parameters
◦ subject – Se podrá corresponder con el estado del sujeto
B.3.3.
Clase ARObservable
Clase abstracta que implementa la interface IARObservable. Contiene un elemento
genérico y una lista de observadores genéricos
Declaración
public abstract class ARObservable
extends java.lang.Object
implements IARObservable
Field summary
data Elemento genérico
observers Lista de observadores genéricos
Constructor summary
ARObservable()
Method summary
addObserver(IARObserver)
notifyObservers()
removeObserver(IARObserver)
Plataforma educativa basada en realidad aumentada y dispositivos móviles
213
– ARStatus
Atributos
protected java.lang.Object data
• Elemento genérico
protected java.util.List observers
• Lista de observadores genéricos
Constructores
ARObservable
public ARObservable( )
Métodos
addObserver
void addObserver( IARObserver observer )
• Description copied from IARObservable (in B.3.1, page 212)
Método que añade un observador a la lista
• Parameters
◦ observer – Observador a añadir
notifyObservers
void notifyObservers( )
• Description copied from IARObservable (in B.3.1, page 212)
Cuando se produzca un cambio en él, notificará a todos los observadores a través de este
método
removeObserver
void removeObserver( IARObserver observer )
• Description copied from IARObservable (in B.3.1, page 212)
Borra un observador de la lista
• Parameters
◦ observer – Observador a borrar
B.4.
Paquete com.ivanlorenzo.gui
B.4.1.
Clase ARStatus
Enumeración de los estados en los que puede estar funcinando la aplicación
Declaración
public final class ARStatus
extends java.lang.Enum
214
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– ARToolkitDrawer
Field summary
AR GPS Estado en el que se está mostrando información proveniente de
una localización
AR Marker Estado en el que se están buscando markers en las imágenes
obtenidas por la cámara
Constructor summary
ARStatus()
Method summary
valueOf(String)
values()
Atributos
public static final ARStatus AR Marker
• Estado en el que se están buscando markers en las imágenes obtenidas por la cámara
public static final ARStatus AR GPS
• Estado en el que se está mostrando información proveniente de una localización
Constructores
ARStatus
private ARStatus( )
Métodos
valueOf
public static ARStatus valueOf( java.lang.String name )
values
public static ARStatus[] values( )
Miembros heredados de la clase java.lang.Enum
protected final Object clone( ) throws CloneNotSupportedException
public final int compareTo( Enum arg0 )
public final boolean equals( Object arg0 )
protected final void finalize( )
public final Class getDeclaringClass( )
public final int hashCode( )
private final name
public final String name( )
private final ordinal
public final int ordinal( )
private void readObject( java.io.ObjectInputStream arg0 ) throws
java.io.IOException, java.lang.ClassNotFoundException
private void readObjectNoData( ) throws java.io.ObjectStreamException
public String toString( )
public static Enum valueOf( Class arg0, String arg1 )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
215
– ARToolkitDrawer
B.4.2.
Clase ARToolkitDrawer
Clase responsable de dibujar los objetos. Está basada en min3d
Declaración
public class ARToolkitDrawer
extends java.lang.Object
Field summary
ar code
ar param
ar transmat result
context
dialog
MARKER MAX
marker width
mediaPlayer
mNumPatt
mRenderer Render de min3d
nya
raster
Constructor summary
ARToolkitDrawer(InputStream, int[], ArrayList, Renderer)
Constructor
Method summary
createNyARTool(int, int) Se crean los recursos
decodeYUV420SP(byte[], byte[], int, int, int)
decodeYUV420SP(int[], byte[], int, int, int)
draw(byte[]) Método que detecta los patrones y si los encuentra pinta los
objetos
draw(IARObserver, int[]) Método para pintar un objeto en el centro de
la pantalla sin falta de detectar ningún patrón
getDescriptionDialog(String)
initialization(InputStream, int[], ArrayList) Inicializa los elementos de
la clase
setContext(Context) Establece el contexto
toCameraFrustumRHf(NyARParam, float[])
toCameraViewRHf(NyARDoubleMatrix44, float[])
216
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– ARToolkitDrawer
Atributos
private int mNumPatt
private static final int MARKER MAX
private jp.nyatla.nyartoolkit.detector.NyARDetectMarker nya
private jp.nyatla.nyartoolkit.core.raster.rgb.NyARRgbRaster RGB raster
private jp.nyatla.nyartoolkit.core.param.NyARParam ar param
private jp.nyatla.nyartoolkit.core.NyARCode ar code
private double marker width
private jp.nyatla.nyartoolkit.core.transmat.NyARTransMatResult ar transmat result
private min3d.core.Renderer mRenderer
• Render de min3d
private com.ivanlorenzo.data.objects.audio.MediaPlayerAdapter mediaPlayer
private android.content.Context context
private android.app.Dialog dialog
Constructores
ARToolkitDrawer
public ARToolkitDrawer( java.io.InputStream camePara, int[] width,
java.util.ArrayList patt, min3d.core.Renderer mRenderer )
• Description
Constructor
• Parameters
◦ camePara – Parámetros de la cámara
◦ width – Ancho de los patrones
◦ patt – Patrones de la aplicación
◦ mRenderer – El render
Métodos
createNyARTool
private void createNyARTool( int w, int h )
• Description
Se crean los recursos
• Parameters
◦ w – Ancho de la pantalla
◦ h – Altura de la pantalla
decodeYUV420SP
public static native void decodeYUV420SP( byte[] rgb, byte[] yuv420sp, int
width, int height, int type )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
217
– MessageWhat
decodeYUV420SP
public static native void decodeYUV420SP( int[] rgb, byte[] yuv420sp, int
width, int height, int type )
draw
public void draw( byte[] data )
• Description
Método que detecta los patrones y si los encuentra pinta los objetos
• Parameters
◦ data – Datos enviados para pintar
draw
public void draw( com.ivanlorenzo.location.observer.IARObserver observer, int[]
objects )
• Description
Método para pintar un objeto en el centro de la pantalla sin falta de detectar ningún patrón
• Parameters
◦ observer – Datos acerca de la localizaci?n actual
◦ objects – Objetos a pintar
getDescriptionDialog
private android.app.Dialog getDescriptionDialog( java.lang.String text )
initialization
private void initialization( java.io.InputStream camePara, int[] width,
java.util.ArrayList patt )
• Description
Inicializa los elementos de la clase
• Parameters
◦ camePara – Parámetros de la cámara
◦ width – Ancho de los patrones
◦ patt – Lista con los patrones
setContext
public void setContext( android.content.Context context )
• Description
Establece el contexto
• Parameters
◦ context – Contexto de la aplicación
toCameraFrustumRHf
public static void toCameraFrustumRHf(
jp.nyatla.nyartoolkit.core.param.NyARParam i arparam, float[] o gl projection )
• Parameters
◦ i arparam –
◦ o gl projection –
toCameraViewRHf
public static void toCameraViewRHf(
jp.nyatla.nyartoolkit.core.types.matrix.NyARDoubleMatrix44 i ny result, float[]
o gl result )
• Parameters
◦ i ny result –
◦ o gl result –
218
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– MessageWhat
B.4.3.
Clase MessageWhat
Enumeración con los mensajes mostrados por la aplicación
Declaración
public final class MessageWhat
extends java.lang.Enum
Field summary
CLEAR SCREEN DELAY
CROP MSG
FIRST TIME INIT
HIDE LOADING
NONE
RESTART PREVIEW
SET CAMERA PARAMETERS WHEN IDLE
SHOW LOADING
Constructor summary
MessageWhat()
Method summary
valueOf(String)
values()
Atributos
public static final MessageWhat NONE
public static final MessageWhat CROP MSG
public static final MessageWhat FIRST TIME INIT
public static final MessageWhat RESTART PREVIEW
public static final MessageWhat CLEAR SCREEN DELAY
public static final MessageWhat SET CAMERA PARAMETERS WHEN IDLE
public static final MessageWhat SHOW LOADING
public static final MessageWhat HIDE LOADING
Constructores
MessageWhat
private MessageWhat( )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
219
– R.attr
Métodos
valueOf
public static MessageWhat valueOf( java.lang.String name )
values
public static MessageWhat[] values( )
Miembros heredados de la clase java.lang.Enum
protected final Object clone( ) throws CloneNotSupportedException
public final int compareTo( Enum arg0 )
public final boolean equals( Object arg0 )
protected final void finalize( )
public final Class getDeclaringClass( )
public final int hashCode( )
private final name
public final String name( )
private final ordinal
public final int ordinal( )
private void readObject( java.io.ObjectInputStream arg0 ) throws
java.io.IOException, java.lang.ClassNotFoundException
private void readObjectNoData( ) throws java.io.ObjectStreamException
public String toString( )
public static Enum valueOf( Class arg0, String arg1 )
B.4.4.
Clase R
Declaración
public final class R
extends java.lang.Object
Constructor summary
R()
Constructores
R
public R( )
B.4.5.
Clase R.attr
Declaración
public static final class R.attr
extends java.lang.Object
220
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– R.id
Constructor summary
R.attr()
Constructores
R.attr
public R.attr( )
B.4.6.
Clase R.drawable
Declaración
public static final class R.drawable
extends java.lang.Object
Field summary
icon
Constructor summary
R.drawable()
Atributos
public static final int icon
Constructores
R.drawable
public R.drawable( )
B.4.7.
Clase R.id
Declaración
public static final class R.id
extends java.lang.Object
Plataforma educativa basada en realidad aumentada y dispositivos móviles
221
– R.layout
Field summary
camera preview
configuration
exit
frame
main
Constructor summary
R.id()
Atributos
public static final int camera preview
public static final int configuration
public static final int exit
public static final int frame
public static final int main
Constructores
R.id
public R.id( )
B.4.8.
Clase R.layout
Declaración
public static final class R.layout
extends java.lang.Object
Field summary
main
Constructor summary
R.layout()
Atributos
public static final int main
222
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– R.raw
Constructores
R.layout
public R.layout( )
B.4.9.
Clase R.menu
Declaración
public static final class R.menu
extends java.lang.Object
Field summary
menu
Constructor summary
R.menu()
Atributos
public static final int menu
Constructores
R.menu
public R.menu( )
B.4.10.
Clase R.raw
Declaración
public static final class R.raw
extends java.lang.Object
Plataforma educativa basada en realidad aumentada y dispositivos móviles
223
– R.string
Field summary
camera para
marker
markerd
multi
patta
pattb
pattc
pattd
pattf
pattg
patthiro
pattkanji
Constructor summary
R.raw()
Atributos
public static final int camera para
public static final int marker
public static final int markerd
public static final int multi
public static final int patta
public static final int pattb
public static final int pattc
public static final int pattd
public static final int pattf
public static final int pattg
public static final int patthiro
public static final int pattkanji
Constructores
R.raw
public R.raw( )
B.4.11.
224
Clase R.string
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– R.string
Declaración
public static final class R.string
extends java.lang.Object
Field summary
app name
camera error title title for the dialog showing the error of camera
hardware title for the dialog showing the error of camera hardware title
for the dialog showing the error of camera hardware
cannot connect camera message for the dialog showing the error of
camera hardware message for the dialog showing the error of camera
hardware message for the dialog showing the error of camera hardware
configuration
connection error
details ok Details dialog .OK”button.
exit
FILE PREFERENCES
internet connection
loading
no
NO OBJECT 3D
objects
objects url
patterns and locations
patterns url
save preferences
sure exit
URL OBJECTS
URL PATTERNS
write objects url
write patterns url
yes
Constructor summary
R.string()
Atributos
public static final int FILE PREFERENCES
public static final int NO OBJECT 3D
public static final int URL OBJECTS
public static final int URL PATTERNS
Plataforma educativa basada en realidad aumentada y dispositivos móviles
225
– R.xml
public static final int app name
public static final int camera error title
• title for the dialog showing the error of camera hardware title for the dialog showing the
error of camera hardware title for the dialog showing the error of camera hardware
public static final int cannot connect camera
• message for the dialog showing the error of camera hardware message for the dialog showing
the error of camera hardware message for the dialog showing the error of camera hardware
public static final int configuration
public static final int connection error
public static final int details ok
• Details dialog .OK”button. Dismisses dialog. Details dialog .OK”button. Dismisses dialog.
Details dialog .OK”button. Dismisses dialog.
public static final int exit
public static final int internet connection
public static final int loading
public static final int no
public static final int objects
public static final int objects url
public static final int patterns and locations
public static final int patterns url
public static final int save preferences
public static final int sure exit
public static final int write objects url
public static final int write patterns url
public static final int yes
Constructores
R.string
public R.string( )
B.4.12.
Clase R.xml
Declaración
public static final class R.xml
extends java.lang.Object
Field summary
preferences
226
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGARActivity
Constructor summary
R.xml()
Atributos
public static final int preferences
Constructores
R.xml
public R.xml( )
B.4.13.
Clase TFGARActivity
Clase Activity principal de la aplicación. Será la encargada de manejar la recepción de
datos de la cámara. Además, recibirá los eventos táctiles producidos en la pantalla y
gestionará la escena en la que se encontrarán todos los objetos.
Declaración
public class TFGARActivity
extends android.app.Activity
implements android.view.View.OnClickListener, android.view.SurfaceHolder.Callback,
min3d.interfaces.ISceneController, com.ivanlorenzo.location.observer.IARObserver
Field summary
initSceneHander Menajador de inicio de la escena
initSceneRunnable
updateSceneHander Manejador de actualización de la escna
updateSceneRunnable
arStatus Estado de la apliación
arToolkitDrawer Instancia encargada de dibujar los objetos
INVALID POINTER ID
mActivePointerId
mCameraDevice Dispositivo de cámara
messageWhat Array con los mensajes de la aplicación
mFirstTimeInitialized Nos indica si ya está inicializada la aplicación
mGLSurfaceView
mHandler Manejador principal
mLastOrientation Última orientación del dispositivo
mLastTouchX
mLastTouchY
mMediaPlayer MediaPlayer
Plataforma educativa basada en realidad aumentada y dispositivos móviles
227
– TFGARActivity
mOrientationListener Manejador de eventos de la orientación
mParameters Paramétros de la cámara
mPausing Nos indica si está pausado
mPreferences Preferencias compartidas de la aplicación
mPreviewCallback Llamada a la vista previa
mPreviewing Nos indica si estamos capturando imágenes previas
mRenderer Renderizador de min3d
mScaleDetector
mScaleFactor
mStartPreviewFail
mSurfaceHolder
mSurfaceView
scene Escena que mantendrá todos los objetos
SCREEN DELAY Tiempo de delay de la pantalla
Constructor summary
TFGARActivity()
Method summary
changeGLSurfaceViewState() Cambia la vista
closeCamera() Apagamos la cámara
createCompilerXML() Crea el compilador XML pasándole las URLs de
los archivos de configuración y se muestra un diálogo informado de que
ha terminado la carga
ensureCameraDevice() Nos aseguramos de que la cámara está disponible
finalizeGLSurfaceView() Finaliza la vista
getInitSceneHandler()
getInitSceneRunnable()
getUpdateSceneHandler()
getUpdateSceneRunnable()
initializeFirstTime() Empezaremos a tomar capturas de la cámara.
initializeGLSurfaceView() Inicializa la vista
initializeSecondTime() Si la actividad es pausada y luego se continúa, se
llamará a este método en onResume
initScene() Inicializamos los objetos 3d, establecemos sus propiedades y
añadimos los objetos a la escena
keepScreenOnAwhile() Mantenemos la pantalla en espera
onActivityResult(int, int, Intent)
onBackPressed()
onClick(View)
onCreate(Bundle) Se llama cuando se crea la actividad
onCreateDialog(int)
onCreateOptionsMenu(Menu)
onDestroy()
onInitScene() Llamado justo después de iniciarse la escena
228
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGARActivity
onOptionsItemSelected(MenuItem)
onPause()
onResume()
onStart()
onStop()
onTouchEvent(MotionEvent)
onUpdateScene() Llamado justo después de actualizarse la escena
resetScreenOn() Reseteamos la pantalla
restartPreview() Se restaura la preview
setCameraParameters() Se establecen los parámetros de la cámara
setPreviewDisplay(SurfaceHolder) Establecemos la vista
showCameraErrorAndFinish() Mostrar el error de la cámara y finalizar
startGPSLocation() Inicia el servicio de localización utilizando el mejor
proveedor, bien sea GPS o a través de la conexión a Internet.
startPreview() Iniciamos la vista
stopPreview() Paramos la vista
surfaceChanged(SurfaceHolder, int, int, int)
surfaceCreated(SurfaceHolder)
surfaceDestroyed(SurfaceHolder)
update(LocationData) Establecemos el estado de la aplicación: Marker o
GPS y en caso de ser localización, lo mandamos dibujar
updateScene() Cualquier manipulación de la escena y de los objetos 3d
irá aquı́.
Atributos
private static MessageWhat messageWhat
• Array con los mensajes de la aplicación
private static final int SCREEN DELAY
• Tiempo de delay de la pantalla
private android.hardware.Camera.Parameters mParameters
• Paramétros de la cámara
private android.view.OrientationEventListener mOrientationListener
• Manejador de eventos de la orientación
private int mLastOrientation
• Última orientación del dispositivo
private android.content.SharedPreferences mPreferences
• Preferencias compartidas de la aplicación
private android.hardware.Camera mCameraDevice
• Dispositivo de cámara
private android.view.SurfaceView mSurfaceView
private android.view.SurfaceHolder mSurfaceHolder
Plataforma educativa basada en realidad aumentada y dispositivos móviles
229
– TFGARActivity
private boolean mStartPreviewFail
private android.opengl.GLSurfaceView mGLSurfaceView
private min3d.core.Renderer mRenderer
• Renderizador de min3d
private boolean mPreviewing
• Nos indica si estamos capturando imágenes previas
private boolean mPausing
• Nos indica si está pausado
private boolean mFirstTimeInitialized
• Nos indica si ya está inicializada la aplicación
private android.os.Handler mHandler
• Manejador principal
private TFGARActivity.PreviewCallback mPreviewCallback
• Llamada a la vista previa
private ARToolkitDrawer arToolkitDrawer
• Instancia encargada de dibujar los objetos
private android.media.MediaPlayer mMediaPlayer
• MediaPlayer
private ARStatus arStatus
• Estado de la apliación
private static final int INVALID POINTER ID
private float mLastTouchX
private float mLastTouchY
private int mActivePointerId
private android.view.ScaleGestureDetector mScaleDetector
private float mScaleFactor
public min3d.core.Scene scene
• Escena que mantendrá todos los objetos
protected android.os.Handler initSceneHander
• Menajador de inicio de la escena
protected android.os.Handler updateSceneHander
• Manejador de actualización de la escna
final java.lang.Runnable initSceneRunnable
final java.lang.Runnable updateSceneRunnable
Constructores
TFGARActivity
public TFGARActivity( )
230
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGARActivity
Métodos
changeGLSurfaceViewState
private void changeGLSurfaceViewState( )
• Description
Cambia la vista
closeCamera
private void closeCamera( )
• Description
Apagamos la cámara
createCompilerXML
private void createCompilerXML( )
• Description
Crea el compilador XML pasándole las URLs de los archivos de configuración y se muestra
un diálogo informado de que ha terminado la carga
ensureCameraDevice
private void ensureCameraDevice( ) throws
com.android.camera.CameraHardwareException
• Description
Nos aseguramos de que la cámara está disponible
• Throws
◦ com.android.camera.CameraHardwareException – En caso de que el hardware de la
cámara nos dé algún error
finalizeGLSurfaceView
private void finalizeGLSurfaceView( )
• Description
Finaliza la vista
getInitSceneHandler
public android.os.Handler getInitSceneHandler( )
• See also
◦ min3d.interfaces.ISceneController.getInitSceneHandler()
getInitSceneRunnable
public java.lang.Runnable getInitSceneRunnable( )
• See also
◦ min3d.interfaces.ISceneController.getInitSceneRunnable()
getUpdateSceneHandler
public android.os.Handler getUpdateSceneHandler( )
• See also
◦ min3d.interfaces.ISceneController.getUpdateSceneHandler()
getUpdateSceneRunnable
public java.lang.Runnable getUpdateSceneRunnable( )
• See also
Plataforma educativa basada en realidad aumentada y dispositivos móviles
231
– TFGARActivity
◦ min3d.interfaces.ISceneController.getUpdateSceneRunnable()
initializeFirstTime
private void initializeFirstTime( )
• Description
Empezaremos a tomar capturas de la cámara. Deberı́a ser llamado una sola vez. Esto
podrı́a haberse hecho en el método onCreate (), pero queremos ası́ logramos que aparezca
la pantalla de la cámara tan pronto como sea posible.
initializeGLSurfaceView
private void initializeGLSurfaceView( )
• Description
Inicializa la vista
initializeSecondTime
private void initializeSecondTime( )
• Description
Si la actividad es pausada y luego se continúa, se llamará a este método en onResume
initScene
public void initScene( )
• Description
Inicializamos los objetos 3d, establecemos sus propiedades y añadimos los objetos a la
escena
keepScreenOnAwhile
private void keepScreenOnAwhile( )
• Description
Mantenemos la pantalla en espera
onActivityResult
protected void onActivityResult( int arg0, int arg1, android.content.Intent arg2
)
onBackPressed
public void onBackPressed( )
onClick
void onClick( android.view.View arg0 )
onCreate
public void onCreate( android.os.Bundle icicle )
• Description
Se llama cuando se crea la actividad
onCreateDialog
protected android.app.Dialog onCreateDialog( int arg0 )
onCreateOptionsMenu
public boolean onCreateOptionsMenu( android.view.Menu arg0 )
onDestroy
protected void onDestroy( )
onInitScene
public void onInitScene( )
232
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGARActivity
• Description
Llamado justo después de iniciarse la escena
onOptionsItemSelected
public boolean onOptionsItemSelected( android.view.MenuItem arg0 )
onPause
protected void onPause( )
onResume
protected void onResume( )
onStart
protected void onStart( )
onStop
protected void onStop( )
onTouchEvent
public boolean onTouchEvent( android.view.MotionEvent arg0 )
onUpdateScene
public void onUpdateScene( )
• Description
Llamado justo después de actualizarse la escena
resetScreenOn
private void resetScreenOn( )
• Description
Reseteamos la pantalla
restartPreview
public void restartPreview( )
• Description
Se restaura la preview
setCameraParameters
private void setCameraParameters( )
• Description
Se establecen los parámetros de la cámara
setPreviewDisplay
private void setPreviewDisplay( android.view.SurfaceHolder holder )
• Description
Establecemos la vista
• Parameters
◦ holder – Holder a establecer
showCameraErrorAndFinish
private void showCameraErrorAndFinish( )
• Description
Mostrar el error de la cámara y finalizar
startGPSLocation
private void startGPSLocation( )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
233
– TFGARActivity
• Description
Inicia el servicio de localización utilizando el mejor proveedor, bien sea GPS o a través de
la conexión a Internet. La búsqueda se realiza cada 120.000 ms = 2 minutos de tiempo.
startPreview
private void startPreview( ) throws com.android.camera.CameraHardwareException
• Description
Iniciamos la vista
• Throws
◦ com.android.camera.CameraHardwareException – En caso de encontrarse algún
problema con la cámara del dispositivo
stopPreview
private void stopPreview( )
• Description
Paramos la vista
surfaceChanged
void surfaceChanged( android.view.SurfaceHolder arg0, int arg1, int arg2, int
arg3 )
surfaceCreated
void surfaceCreated( android.view.SurfaceHolder arg0 )
surfaceDestroyed
void surfaceDestroyed( android.view.SurfaceHolder arg0 )
update
public void update( com.ivanlorenzo.location.LocationData data )
• Description
Establecemos el estado de la aplicación: Marker o GPS y en caso de ser localización, lo
mandamos dibujar
updateScene
public void updateScene( )
• Description
Cualquier manipulación de la escena y de los objetos 3d irá aquı́. En nuestro caso tan solo
modificaremos la escala por aquella que tengan en cada momento.
Miembros heredados de la clase android.app.Activity
static void ( )
public void addContentView( android.view.View arg0,
android.view.ViewGroup.LayoutParams arg1 )
public void closeContextMenu( )
public void closeOptionsMenu( )
public PendingIntent createPendingResult( int arg0, android.content.Intent arg1,
int arg2 )
public static final DEFAULT KEYS DIALER
public static final DEFAULT KEYS DISABLE
public static final DEFAULT KEYS SEARCH GLOBAL
public static final DEFAULT KEYS SEARCH LOCAL
public static final DEFAULT KEYS SHORTCUT
public final void dismissDialog( int arg0 )
public boolean dispatchKeyEvent( android.view.KeyEvent arg0 )
public boolean dispatchPopulateAccessibilityEvent(
android.view.accessibility.AccessibilityEvent arg0 )
234
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGARActivity
public boolean dispatchTouchEvent( android.view.MotionEvent arg0 )
public boolean dispatchTrackballEvent( android.view.MotionEvent arg0 )
public View findViewById( int arg0 )
public void finish( )
public void finishActivity( int arg0 )
public void finishActivityFromChild( Activity arg0, int arg1 )
public void finishFromChild( Activity arg0 )
protected static final FOCUSED STATE SET
public final Application getApplication( )
public ComponentName getCallingActivity( )
public String getCallingPackage( )
public int getChangingConfigurations( )
public ComponentName getComponentName( )
public View getCurrentFocus( )
public static long getInstanceCount( )
public Intent getIntent( )
public Object getLastNonConfigurationInstance( )
public LayoutInflater getLayoutInflater( )
public String getLocalClassName( )
public MenuInflater getMenuInflater( )
public final Activity getParent( )
public SharedPreferences getPreferences( int arg0 )
public int getRequestedOrientation( )
public Object getSystemService( java.lang.String arg0 )
public int getTaskId( )
public final CharSequence getTitle( )
public final int getTitleColor( )
public final int getVolumeControlStream( )
public int getWallpaperDesiredMinimumHeight( )
public int getWallpaperDesiredMinimumWidth( )
public Window getWindow( )
public WindowManager getWindowManager( )
public boolean hasWindowFocus( )
public final boolean isChild( )
public boolean isFinishing( )
public boolean isTaskRoot( )
public final Cursor managedQuery( android.net.Uri arg0, java.lang.String[]
arg1, java.lang.String arg2, java.lang.String[] arg3, java.lang.String arg4 )
public boolean moveTaskToBack( boolean arg0 )
protected void onActivityResult( int arg0, int arg1, android.content.Intent arg2
)
protected void onApplyThemeResource( android.content.res.Resources.Theme
arg0, int arg1, boolean arg2 )
public void onAttachedToWindow( )
public void onBackPressed( )
protected void onChildTitleChanged( Activity arg0, java.lang.CharSequence arg1
)
public void onConfigurationChanged( android.content.res.Configuration arg0 )
public void onContentChanged( )
public boolean onContextItemSelected( android.view.MenuItem arg0 )
public void onContextMenuClosed( android.view.Menu arg0 )
protected void onCreate( android.os.Bundle arg0 )
public void onCreateContextMenu( android.view.ContextMenu arg0,
android.view.View arg1, android.view.ContextMenu.ContextMenuInfo arg2 )
public CharSequence onCreateDescription( )
protected Dialog onCreateDialog( int arg0 )
protected Dialog onCreateDialog( int arg0, android.os.Bundle arg1 )
public boolean onCreateOptionsMenu( android.view.Menu arg0 )
public boolean onCreatePanelMenu( int arg0, android.view.Menu arg1 )
public View onCreatePanelView( int arg0 )
public boolean onCreateThumbnail( android.graphics.Bitmap arg0,
android.graphics.Canvas arg1 )
public View onCreateView( java.lang.String arg0, android.content.Context arg1,
android.util.AttributeSet arg2 )
protected void onDestroy( )
public void onDetachedFromWindow( )
public boolean onKeyDown( int arg0, android.view.KeyEvent arg1 )
public boolean onKeyLongPress( int arg0, android.view.KeyEvent arg1 )
public boolean onKeyMultiple( int arg0, int arg1, android.view.KeyEvent arg2 )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
235
– TFGARActivity
public boolean onKeyUp( int arg0, android.view.KeyEvent arg1 )
public void onLowMemory( )
public boolean onMenuItemSelected( int arg0, android.view.MenuItem arg1 )
public boolean onMenuOpened( int arg0, android.view.Menu arg1 )
protected void onNewIntent( android.content.Intent arg0 )
public boolean onOptionsItemSelected( android.view.MenuItem arg0 )
public void onOptionsMenuClosed( android.view.Menu arg0 )
public void onPanelClosed( int arg0, android.view.Menu arg1 )
protected void onPause( )
protected void onPostCreate( android.os.Bundle arg0 )
protected void onPostResume( )
protected void onPrepareDialog( int arg0, Dialog arg1 )
protected void onPrepareDialog( int arg0, Dialog arg1, android.os.Bundle arg2 )
public boolean onPrepareOptionsMenu( android.view.Menu arg0 )
public boolean onPreparePanel( int arg0, android.view.View arg1,
android.view.Menu arg2 )
protected void onRestart( )
protected void onRestoreInstanceState( android.os.Bundle arg0 )
protected void onResume( )
public Object onRetainNonConfigurationInstance( )
protected void onSaveInstanceState( android.os.Bundle arg0 )
public boolean onSearchRequested( )
protected void onStart( )
protected void onStop( )
protected void onTitleChanged( java.lang.CharSequence arg0, int arg1 )
public boolean onTouchEvent( android.view.MotionEvent arg0 )
public boolean onTrackballEvent( android.view.MotionEvent arg0 )
public void onUserInteraction( )
protected void onUserLeaveHint( )
public void onWindowAttributesChanged(
android.view.WindowManager.LayoutParams arg0 )
public void onWindowFocusChanged( boolean arg0 )
public void openContextMenu( android.view.View arg0 )
public void openOptionsMenu( )
public void overridePendingTransition( int arg0, int arg1 )
public void registerForContextMenu( android.view.View arg0 )
public final void removeDialog( int arg0 )
public final boolean requestWindowFeature( int arg0 )
public static final RESULT CANCELED
public static final RESULT FIRST USER
public static final RESULT OK
public final void runOnUiThread( java.lang.Runnable arg0 )
public void setContentView( int arg0 )
public void setContentView( android.view.View arg0 )
public void setContentView( android.view.View arg0,
android.view.ViewGroup.LayoutParams arg1 )
public final void setDefaultKeyMode( int arg0 )
public final void setFeatureDrawable( int arg0,
android.graphics.drawable.Drawable arg1 )
public final void setFeatureDrawableAlpha( int arg0, int arg1 )
public final void setFeatureDrawableResource( int arg0, int arg1 )
public final void setFeatureDrawableUri( int arg0, android.net.Uri arg1 )
public void setIntent( android.content.Intent arg0 )
public void setPersistent( boolean arg0 )
public final void setProgress( int arg0 )
public final void setProgressBarIndeterminate( boolean arg0 )
public final void setProgressBarIndeterminateVisibility( boolean arg0 )
public final void setProgressBarVisibility( boolean arg0 )
public void setRequestedOrientation( int arg0 )
public final void setResult( int arg0 )
public final void setResult( int arg0, android.content.Intent arg1 )
public final void setSecondaryProgress( int arg0 )
public void setTitle( java.lang.CharSequence arg0 )
public void setTitle( int arg0 )
public void setTitleColor( int arg0 )
public void setVisible( boolean arg0 )
public final void setVolumeControlStream( int arg0 )
public final void showDialog( int arg0 )
public final boolean showDialog( int arg0, android.os.Bundle arg1 )
public void startActivity( android.content.Intent arg0 )
236
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGARActivity
public void startActivityForResult( android.content.Intent arg0, int arg1 )
public void startActivityFromChild( Activity arg0, android.content.Intent arg1,
int arg2 )
public boolean startActivityIfNeeded( android.content.Intent arg0, int arg1 )
public void startIntentSender( android.content.IntentSender arg0,
android.content.Intent arg1, int arg2, int arg3, int arg4 ) throws
android.content.IntentSender.SendIntentException
public void startIntentSenderForResult( android.content.IntentSender arg0, int
arg1, android.content.Intent arg2, int arg3, int arg4, int arg5 ) throws
android.content.IntentSender.SendIntentException
public void startIntentSenderFromChild( Activity arg0,
android.content.IntentSender arg1, int arg2, android.content.Intent arg3, int
arg4, int arg5, int arg6 ) throws
android.content.IntentSender.SendIntentException
public void startManagingCursor( android.database.Cursor arg0 )
public boolean startNextMatchingActivity( android.content.Intent arg0 )
public void startSearch( java.lang.String arg0, boolean arg1, android.os.Bundle
arg2, boolean arg3 )
public void stopManagingCursor( android.database.Cursor arg0 )
public void takeKeyEvents( boolean arg0 )
public void triggerSearch( java.lang.String arg0, android.os.Bundle arg1 )
public void unregisterForContextMenu( android.view.View arg0 )
Miembros heredados de la clase android.view.ContextThemeWrapper
protected void attachBaseContext( android.content.Context arg0 )
public Object getSystemService( java.lang.String arg0 )
public Resources.Theme getTheme( )
protected void onApplyThemeResource( android.content.res.Resources.Theme
arg0, int arg1, boolean arg2 )
public void setTheme( int arg0 )
Miembros heredados de la clase android.content.ContextWrapper
protected void attachBaseContext( Context arg0 )
public boolean bindService( Intent arg0, ServiceConnection arg1, int arg2 )
public int checkCallingOrSelfPermission( java.lang.String arg0 )
public int checkCallingOrSelfUriPermission( android.net.Uri arg0, int arg1 )
public int checkCallingPermission( java.lang.String arg0 )
public int checkCallingUriPermission( android.net.Uri arg0, int arg1 )
public int checkPermission( java.lang.String arg0, int arg1, int arg2 )
public int checkUriPermission( android.net.Uri arg0, int arg1, int arg2, int
arg3 )
public int checkUriPermission( android.net.Uri arg0, java.lang.String arg1,
java.lang.String arg2, int arg3, int arg4, int arg5 )
public void clearWallpaper( ) throws java.io.IOException
public Context createPackageContext( java.lang.String arg0, int arg1 ) throws
pm.PackageManager.NameNotFoundException
public String databaseList( )
public boolean deleteDatabase( java.lang.String arg0 )
public boolean deleteFile( java.lang.String arg0 )
public void enforceCallingOrSelfPermission( java.lang.String arg0,
java.lang.String arg1 )
public void enforceCallingOrSelfUriPermission( android.net.Uri arg0, int arg1,
java.lang.String arg2 )
public void enforceCallingPermission( java.lang.String arg0, java.lang.String
arg1 )
public void enforceCallingUriPermission( android.net.Uri arg0, int arg1,
java.lang.String arg2 )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
237
– TFGARActivity
public void enforcePermission( java.lang.String arg0, int arg1, int arg2,
java.lang.String arg3 )
public void enforceUriPermission( android.net.Uri arg0, int arg1, int arg2, int
arg3, java.lang.String arg4 )
public void enforceUriPermission( android.net.Uri arg0, java.lang.String arg1,
java.lang.String arg2, int arg3, int arg4, int arg5, java.lang.String arg6 )
public String fileList( )
public Context getApplicationContext( )
public ApplicationInfo getApplicationInfo( )
public AssetManager getAssets( )
public Context getBaseContext( )
public File getCacheDir( )
public ClassLoader getClassLoader( )
public ContentResolver getContentResolver( )
public File getDatabasePath( java.lang.String arg0 )
public File getDir( java.lang.String arg0, int arg1 )
public File getExternalCacheDir( )
public File getExternalFilesDir( java.lang.String arg0 )
public File getFilesDir( )
public File getFileStreamPath( java.lang.String arg0 )
public Looper getMainLooper( )
public String getPackageCodePath( )
public PackageManager getPackageManager( )
public String getPackageName( )
public String getPackageResourcePath( )
public Resources getResources( )
public SharedPreferences getSharedPreferences( java.lang.String arg0, int arg1 )
public Object getSystemService( java.lang.String arg0 )
public Resources.Theme getTheme( )
public Drawable getWallpaper( )
public int getWallpaperDesiredMinimumHeight( )
public int getWallpaperDesiredMinimumWidth( )
public void grantUriPermission( java.lang.String arg0, android.net.Uri arg1, int
arg2 )
public boolean isRestricted( )
public FileInputStream openFileInput( java.lang.String arg0 ) throws
java.io.FileNotFoundException
public FileOutputStream openFileOutput( java.lang.String arg0, int arg1 )
throws java.io.FileNotFoundException
public SQLiteDatabase openOrCreateDatabase( java.lang.String arg0, int arg1,
android.database.sqlite.SQLiteDatabase.CursorFactory arg2 )
public Drawable peekWallpaper( )
public Intent registerReceiver( BroadcastReceiver arg0, IntentFilter arg1 )
public Intent registerReceiver( BroadcastReceiver arg0, IntentFilter arg1,
java.lang.String arg2, android.os.Handler arg3 )
public void removeStickyBroadcast( Intent arg0 )
public void revokeUriPermission( android.net.Uri arg0, int arg1 )
public void sendBroadcast( Intent arg0 )
public void sendBroadcast( Intent arg0, java.lang.String arg1 )
public void sendOrderedBroadcast( Intent arg0, java.lang.String arg1 )
public void sendOrderedBroadcast( Intent arg0, java.lang.String arg1,
BroadcastReceiver arg2, android.os.Handler arg3, int arg4, java.lang.String
arg5, android.os.Bundle arg6 )
public void sendStickyBroadcast( Intent arg0 )
public void sendStickyOrderedBroadcast( Intent arg0, BroadcastReceiver arg1,
android.os.Handler arg2, int arg3, java.lang.String arg4, android.os.Bundle arg5
)
public void setTheme( int arg0 )
public void setWallpaper( android.graphics.Bitmap arg0 ) throws
java.io.IOException
public void setWallpaper( java.io.InputStream arg0 ) throws java.io.IOException
public void startActivity( Intent arg0 )
public boolean startInstrumentation( ComponentName arg0, java.lang.String arg1,
android.os.Bundle arg2 )
public void startIntentSender( IntentSender arg0, Intent arg1, int arg2, int
arg3, int arg4 ) throws IntentSender.SendIntentException
public ComponentName startService( Intent arg0 )
public boolean stopService( Intent arg0 )
public void unbindService( ServiceConnection arg0 )
public void unregisterReceiver( BroadcastReceiver arg0 )
238
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGARActivity
Miembros heredados de la clase android.content.Context
public static final ACCESSIBILITY SERVICE
public static final ACCOUNT SERVICE
public static final ACTIVITY SERVICE
public static final ALARM SERVICE
public static final AUDIO SERVICE
public static final BIND AUTO CREATE
public static final BIND DEBUG UNBIND
public static final BIND NOT FOREGROUND
public abstract boolean bindService( Intent arg0, ServiceConnection arg1, int
arg2 )
public abstract int checkCallingOrSelfPermission( java.lang.String arg0 )
public abstract int checkCallingOrSelfUriPermission( android.net.Uri arg0, int
arg1 )
public abstract int checkCallingPermission( java.lang.String arg0 )
public abstract int checkCallingUriPermission( android.net.Uri arg0, int arg1 )
public abstract int checkPermission( java.lang.String arg0, int arg1, int arg2 )
public abstract int checkUriPermission( android.net.Uri arg0, int arg1, int
arg2, int arg3 )
public abstract int checkUriPermission( android.net.Uri arg0, java.lang.String
arg1, java.lang.String arg2, int arg3, int arg4, int arg5 )
public abstract void clearWallpaper( ) throws java.io.IOException
public static final CLIPBOARD SERVICE
public static final CONNECTIVITY SERVICE
public static final CONTEXT IGNORE SECURITY
public static final CONTEXT INCLUDE CODE
public static final CONTEXT RESTRICTED
public abstract Context createPackageContext( java.lang.String arg0, int arg1 )
throws pm.PackageManager.NameNotFoundException
public abstract String databaseList( )
public abstract boolean deleteDatabase( java.lang.String arg0 )
public abstract boolean deleteFile( java.lang.String arg0 )
public static final DEVICE POLICY SERVICE
public static final DROPBOX SERVICE
public abstract void enforceCallingOrSelfPermission( java.lang.String arg0,
java.lang.String arg1 )
public abstract void enforceCallingOrSelfUriPermission( android.net.Uri arg0,
int arg1, java.lang.String arg2 )
public abstract void enforceCallingPermission( java.lang.String arg0,
java.lang.String arg1 )
public abstract void enforceCallingUriPermission( android.net.Uri arg0, int
arg1, java.lang.String arg2 )
public abstract void enforcePermission( java.lang.String arg0, int arg1, int
arg2, java.lang.String arg3 )
public abstract void enforceUriPermission( android.net.Uri arg0, int arg1, int
arg2, int arg3, java.lang.String arg4 )
public abstract void enforceUriPermission( android.net.Uri arg0,
java.lang.String arg1, java.lang.String arg2, int arg3, int arg4, int arg5,
java.lang.String arg6 )
public abstract String fileList( )
public abstract Context getApplicationContext( )
public abstract ApplicationInfo getApplicationInfo( )
public abstract AssetManager getAssets( )
public abstract File getCacheDir( )
public abstract ClassLoader getClassLoader( )
public abstract ContentResolver getContentResolver( )
public abstract File getDatabasePath( java.lang.String arg0 )
public abstract File getDir( java.lang.String arg0, int arg1 )
public abstract File getExternalCacheDir( )
public abstract File getExternalFilesDir( java.lang.String arg0 )
public abstract File getFilesDir( )
public abstract File getFileStreamPath( java.lang.String arg0 )
public abstract Looper getMainLooper( )
public abstract String getPackageCodePath( )
public abstract PackageManager getPackageManager( )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
239
– TFGARActivity
public abstract String getPackageName( )
public abstract String getPackageResourcePath( )
public abstract Resources getResources( )
public abstract SharedPreferences getSharedPreferences( java.lang.String arg0,
int arg1 )
public final String getString( int arg0 )
public final String getString( int arg0, java.lang.Object[] arg1 )
public abstract Object getSystemService( java.lang.String arg0 )
public final CharSequence getText( int arg0 )
public abstract Resources.Theme getTheme( )
public abstract Drawable getWallpaper( )
public abstract int getWallpaperDesiredMinimumHeight( )
public abstract int getWallpaperDesiredMinimumWidth( )
public abstract void grantUriPermission( java.lang.String arg0, android.net.Uri
arg1, int arg2 )
public static final INPUT METHOD SERVICE
public boolean isRestricted( )
public static final KEYGUARD SERVICE
public static final LAYOUT INFLATER SERVICE
public static final LOCATION SERVICE
public static final MODE APPEND
public static final MODE PRIVATE
public static final MODE WORLD READABLE
public static final MODE WORLD WRITEABLE
public static final NOTIFICATION SERVICE
public final TypedArray obtainStyledAttributes( android.util.AttributeSet arg0,
int[] arg1 )
public final TypedArray obtainStyledAttributes( android.util.AttributeSet arg0,
int[] arg1, int arg2, int arg3 )
public final TypedArray obtainStyledAttributes( int[] arg0 )
public final TypedArray obtainStyledAttributes( int arg0, int[] arg1 ) throws
res.Resources.NotFoundException
public abstract FileInputStream openFileInput( java.lang.String arg0 ) throws
java.io.FileNotFoundException
public abstract FileOutputStream openFileOutput( java.lang.String arg0, int
arg1 ) throws java.io.FileNotFoundException
public abstract SQLiteDatabase openOrCreateDatabase( java.lang.String arg0,
int arg1, android.database.sqlite.SQLiteDatabase.CursorFactory arg2 )
public abstract Drawable peekWallpaper( )
public static final POWER SERVICE
public abstract Intent registerReceiver( BroadcastReceiver arg0, IntentFilter
arg1 )
public abstract Intent registerReceiver( BroadcastReceiver arg0, IntentFilter
arg1, java.lang.String arg2, android.os.Handler arg3 )
public abstract void removeStickyBroadcast( Intent arg0 )
public abstract void revokeUriPermission( android.net.Uri arg0, int arg1 )
public static final SEARCH SERVICE
public abstract void sendBroadcast( Intent arg0 )
public abstract void sendBroadcast( Intent arg0, java.lang.String arg1 )
public abstract void sendOrderedBroadcast( Intent arg0, java.lang.String arg1 )
public abstract void sendOrderedBroadcast( Intent arg0, java.lang.String arg1,
BroadcastReceiver arg2, android.os.Handler arg3, int arg4, java.lang.String
arg5, android.os.Bundle arg6 )
public abstract void sendStickyBroadcast( Intent arg0 )
public abstract void sendStickyOrderedBroadcast( Intent arg0, BroadcastReceiver
arg1, android.os.Handler arg2, int arg3, java.lang.String arg4,
android.os.Bundle arg5 )
public static final SENSOR SERVICE
public abstract void setTheme( int arg0 )
public abstract void setWallpaper( android.graphics.Bitmap arg0 ) throws
java.io.IOException
public abstract void setWallpaper( java.io.InputStream arg0 ) throws
java.io.IOException
public abstract void startActivity( Intent arg0 )
public abstract boolean startInstrumentation( ComponentName arg0,
java.lang.String arg1, android.os.Bundle arg2 )
240
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGARActivity.MainHandler
public abstract void startIntentSender( IntentSender arg0, Intent arg1, int
arg2, int arg3, int arg4 ) throws IntentSender.SendIntentException
public abstract ComponentName startService( Intent arg0 )
public abstract boolean stopService( Intent arg0 )
public static final TELEPHONY SERVICE
public static final UI MODE SERVICE
public abstract void unbindService( ServiceConnection arg0 )
public abstract void unregisterReceiver( BroadcastReceiver arg0 )
public static final VIBRATOR SERVICE
public static final WALLPAPER SERVICE
public static final WIFI SERVICE
public static final WINDOW SERVICE
B.4.14.
Clase TFGARActivity.MainHandler
Clase manejadora que se utiliza para enviar mensajes al hilo principal de la aplicación
Declaración
private class TFGARActivity.MainHandler
extends android.os.Handler
Constructor summary
TFGARActivity.MainHandler()
Method summary
handleMessage(Message)
Constructores
TFGARActivity.MainHandler
private TFGARActivity.MainHandler( )
Métodos
handleMessage
public void handleMessage( android.os.Message arg0 )
Miembros heredados de la clase android.os.Handler
public
public
public
public
public
public
public
public
public
void dispatchMessage( Message arg0 )
final void dump( android.util.Printer arg0, java.lang.String arg1 )
final Looper getLooper( )
void handleMessage( Message arg0 )
final boolean hasMessages( int arg0 )
final boolean hasMessages( int arg0, java.lang.Object arg1 )
final Message obtainMessage( )
final Message obtainMessage( int arg0 )
final Message obtainMessage( int arg0, int arg1, int arg2 )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
241
– TFGARActivity.ScaleListener
public final Message obtainMessage( int arg0, int arg1, int arg2,
java.lang.Object arg3 )
public final Message obtainMessage( int arg0, java.lang.Object arg1 )
public final boolean post( java.lang.Runnable arg0 )
public final boolean postAtFrontOfQueue( java.lang.Runnable arg0 )
public final boolean postAtTime( java.lang.Runnable arg0, long arg1 )
public final boolean postAtTime( java.lang.Runnable arg0, java.lang.Object
arg1, long arg2 )
public final boolean postDelayed( java.lang.Runnable arg0, long arg1 )
public final void removeCallbacks( java.lang.Runnable arg0 )
public final void removeCallbacks( java.lang.Runnable arg0, java.lang.Object
arg1 )
public final void removeCallbacksAndMessages( java.lang.Object arg0 )
public final void removeMessages( int arg0 )
public final void removeMessages( int arg0, java.lang.Object arg1 )
public final boolean sendEmptyMessage( int arg0 )
public final boolean sendEmptyMessageAtTime( int arg0, long arg1 )
public final boolean sendEmptyMessageDelayed( int arg0, long arg1 )
public final boolean sendMessage( Message arg0 )
public final boolean sendMessageAtFrontOfQueue( Message arg0 )
public boolean sendMessageAtTime( Message arg0, long arg1 )
public final boolean sendMessageDelayed( Message arg0, long arg1 )
public String toString( )
B.4.15.
Clase TFGARActivity.PreviewCallback
Clase utilizada para enviar y recibir copias de los frames mostrados
Declaración
private final class TFGARActivity.PreviewCallback
extends java.lang.Object
implements android.hardware.Camera.PreviewCallback
Constructor summary
TFGARActivity.PreviewCallback()
Method summary
onPreviewFrame(byte[], Camera)
Constructores
TFGARActivity.PreviewCallback
private TFGARActivity.PreviewCallback( )
Métodos
onPreviewFrame
void onPreviewFrame( byte[] arg0, android.hardware.Camera arg1 )
242
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– Util
B.4.16.
Clase TFGARActivity.ScaleListener
Clase que gestiona el gesto de escalar un objeto
Declaración
private class TFGARActivity.ScaleListener
extends android.view.ScaleGestureDetector.SimpleOnScaleGestureListener
Constructor summary
TFGARActivity.ScaleListener()
Method summary
onScale(ScaleGestureDetector)
Constructores
TFGARActivity.ScaleListener
private TFGARActivity.ScaleListener( )
Métodos
onScale
boolean onScale( android.view.ScaleGestureDetector arg0 )
Miembros heredados de la clase android.view.ScaleGestureDetector.SimpleOnScaleGestureLi
public boolean onScale( ScaleGestureDetector arg0 )
public boolean onScaleBegin( ScaleGestureDetector arg0 )
public void onScaleEnd( ScaleGestureDetector arg0 )
B.4.17.
Clase Util
Clase de utilidades que contendrá un conjunto de métodos estáticos de ayuda a otras
clases
Declaración
public class Util
extends java.lang.Object
Plataforma educativa basada en realidad aumentada y dispositivos móviles
243
– Util
Constructor summary
Util()
Method summary
checkURL(String) Método que comprueba si una determinada URL
está disponible
getSharedPreferences(Context) Obtiene las preferencias.
roundOrientation(int) Método que cambia la orientación de la pantalla
redondeándola
updatePositionObjectsScene(Scene, float, float, int) Actualiza las
posiciones de todos los objetos de la escena
updateZoomObjectsScene(Scene, float) Actualiza la escala de todos los
objetos de la escena
Constructores
Util
public Util( )
Métodos
checkURL
private static boolean checkURL( java.lang.String url )
• Description
Método que comprueba si una determinada URL está disponible
• Parameters
◦ url – Dirección a comprobar si está activa
• Returns – Verdado si está disponible, falso en caso contrario
getSharedPreferences
public static android.content.SharedPreferences getSharedPreferences(
android.content.Context ctx )
• Description
Obtiene las preferencias. O bien las definidas y guardadas por el usuario o en caso de no
estar dipsonibles, carga unas por defecto
• Parameters
◦ ctx – El contexto de la aplicación
• Returns – Las preferencias del usuario
roundOrientation
public static int roundOrientation( int orientationInput )
• Description
Método que cambia la orientación de la pantalla redondeándola
• Parameters
◦ orientationInput – Orientación de la pantalla
• Returns – La orientación redondeada
244
Plataforma educativa basada en realidad aumentada y dispositivos móviles
B.5. Paquete com.ivanlorenzo.data.objects
updatePositionObjectsScene
public static void updatePositionObjectsScene( min3d.core.Scene scene, float
mPosX, float mPosY, int mLastOrientation )
• Description
Actualiza las posiciones de todos los objetos de la escena
• Parameters
◦ scene – Escena que contendrá los objetos
◦ mPosX – El desplazamiento en el eje de las X
◦ mPosY – El desplazamiento en el eje de las Y
◦ mLastOrientation – La orientación de la pantalla
updateZoomObjectsScene
public static void updateZoomObjectsScene( min3d.core.Scene scene, float
mScaleFactor )
• Description
Actualiza la escala de todos los objetos de la escena
• Parameters
◦ scene – Escena
◦ mScaleFactor – El factor de escala a aplicar
B.5.
Paquete com.ivanlorenzo.data.objects
B.5.1.
Clase Max3DSObject
Clase que representa un objeto con formato 3ds. Esta clase hereda de Ojbect3D
Declaración
public class Max3DSObject
extends com.ivanlorenzo.data.objects.Object3D (in B.5.3, page 247)
Constructor summary
Max3DSObject(int, String, String, String, String, Audio, int)
Constructor
Constructores
Max3DSObject
public Max3DSObject( int id, java.lang.String name, java.lang.String
description, java.lang.String file, java.lang.String texture, audio.Audio audio,
int order )
• Description
Constructor
• Parameters
◦ id – Identificador del objeto
◦ name – Nombre del objeto
Plataforma educativa basada en realidad aumentada y dispositivos móviles
245
– MD2Object
◦
◦
◦
◦
◦
description – Descripción del objeto
file – Fichero 3d
texture – Imagen de textura
audio – Audio del objeto
order – Número de orden en el que almacenará
Miembros heredados de la clase com.ivanlorenzo.data.objects.Object3D (in
B.5.3, page 247)
audio
description
file3D
public Audio getAudio( )
public int getAudioID( )
public String getDescription( )
public String getFile( )
public String getFileWithoutExtension( )
public int getId( )
public String getName( )
public int getOrder( )
public String getTexture( )
public Parser.Type getType( )
public boolean has3DFile( )
id
name
order
texture
B.5.2.
Clase MD2Object
Clase que representa un objeto con formato md2. Esta clase hereda de Ojbect3D
Declaración
public class MD2Object
extends com.ivanlorenzo.data.objects.Object3D (in B.5.3, page 247)
Constructor summary
MD2Object(int, String, String, String, String, Audio, int)
Constructor
Constructores
MD2Object
public MD2Object( int id, java.lang.String name, java.lang.String description,
java.lang.String file, java.lang.String texture, audio.Audio audio, int order )
• Description
Constructor
• Parameters
◦ id – Identificador del objeto
◦ name – Nombre del objeto
246
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– Object3D
◦
◦
◦
◦
◦
description – Descripción del objeto
file – Fichero 3d
texture – Imagen de textura
audio – Audio del objeto
order – Número de orden en el que almacenará
Miembros heredados de la clase com.ivanlorenzo.data.objects.Object3D (in
B.5.3, page 247)
audio
description
file3D
public Audio getAudio( )
public int getAudioID( )
public String getDescription( )
public String getFile( )
public String getFileWithoutExtension( )
public int getId( )
public String getName( )
public int getOrder( )
public String getTexture( )
public Parser.Type getType( )
public boolean has3DFile( )
id
name
order
texture
B.5.3.
Clase Object3D
Clase abstracta que representa un objeto 3d proveniente de los ficheros de configuración
Declaración
public abstract class Object3D
extends java.lang.Object
Field summary
audio Audio
description Descripción sobre el objeto
file3D Fichero 3D
id Identificador del objeto
name Nombre del objeto
order Orden en que el objeto se almacena
texture Textura del objeto
Constructor summary
Object3D(int, String, String, String, String, Audio, int) Constructor
de la clase
Plataforma educativa basada en realidad aumentada y dispositivos móviles
247
– Object3D
Method summary
getAudio() Devuelve el audio
getAudioID() Devuelve el identificador del audio
getDescription() Devuelve la descripción
getFile() Devuelve el nombre del fichero
getFileWithoutExtension() Devuelve el nombre del fichero sin extensión
getId() Devuelve el identificador
getName() Devuelve el nombre
getOrder() Devuelve el orden del objeto
getTexture() Devuelve la textura
getType() Tipo del fichero
has3DFile() Comprueba si el objeto tiene un fichero 3d asociado
Atributos
int id
• Identificador del objeto
java.lang.String name
• Nombre del objeto
Object3D.File3D file3D
• Fichero 3D
java.lang.String texture
• Textura del objeto
java.lang.String description
• Descripción sobre el objeto
audio.Audio audio
• Audio
int order
• Orden en que el objeto se almacena
Constructores
Object3D
public Object3D( int id, java.lang.String name, java.lang.String description,
java.lang.String file, java.lang.String texture, audio.Audio audio, int order )
• Description
Constructor de la clase
• Parameters
◦ id – Identificador del objeto
◦ name – Nombre del objeto
◦ description – Descripción del objeto
◦ file – Nombre del fichero
◦ texture – Textura
◦ audio – Audio del objeto
◦ order – Orden en el que se almacena
248
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– Object3D
Métodos
getAudio
public audio.Audio getAudio( )
• Description
Devuelve el audio
• Returns – Audio del objeto
getAudioID
public int getAudioID( )
• Description
Devuelve el identificador del audio
• Returns – Identificador del audio
getDescription
public java.lang.String getDescription( )
• Description
Devuelve la descripción
• Returns – La descripción del objeto
getFile
public java.lang.String getFile( )
• Description
Devuelve el nombre del fichero
• Returns – Nombre del fichero 3D
getFileWithoutExtension
public java.lang.String getFileWithoutExtension( )
• Description
Devuelve el nombre del fichero sin extensión
• Returns – Nombre del fichero suprimiendo la extensión
getId
public int getId( )
• Description
Devuelve el identificador
• Returns – Identificador del objeto
getName
public java.lang.String getName( )
• Description
Devuelve el nombre
• Returns – Nombre del objeto
getOrder
public int getOrder( )
• Description
Devuelve el orden del objeto
• Returns – Orden del objeto
Plataforma educativa basada en realidad aumentada y dispositivos móviles
249
– Object3D.File3D
getTexture
public java.lang.String getTexture( )
• Description
Devuelve la textura
• Returns – La textura del objeto
getType
public com.ivanlorenzo.parser.Parser.Type getType( )
• Description
Tipo del fichero
• Returns – El tipo del fichero
has3DFile
public boolean has3DFile( )
• Description
Comprueba si el objeto tiene un fichero 3d asociado
• Returns – Verdadero si dispone de un fichero 3d, falso en caso contrario
B.5.4.
Clase Object3D.File3D
Clase que representa un fichero 3D
Declaración
class Object3D.File3D
extends java.lang.Object
Field summary
name Nombre del fichero 3D
type Tipo del fichero 3D
Constructor summary
Object3D.File3D(String, Parser.Type) Constructor
Method summary
getName()
getType()
Atributos
private java.lang.String name
• Nombre del fichero 3D
private com.ivanlorenzo.parser.Parser.Type type
• Tipo del fichero 3D
250
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– Object3DCreator
Constructores
Object3D.File3D
public Object3D.File3D( java.lang.String name,
com.ivanlorenzo.parser.Parser.Type type )
• Description
Constructor
• Parameters
◦ name – Nombre del fichero
◦ type – Extensión del fichero
Métodos
getName
public java.lang.String getName( )
getType
public com.ivanlorenzo.parser.Parser.Type getType( )
B.5.5.
Clase Object3DCreator
Clase factorı́a que será la encargada de crear un objeto determinado en función de su
tipo. Para esto utiliza alguno de sus métodos estáticos
Declaración
public final class Object3DCreator
extends java.lang.Object
Constructor summary
Object3DCreator() Constructor privado para que no se puedan crear
instancias de esta clase
Method summary
createObject(Resources, int, String, String, String, String, String,
String, int) Método encargado de crear un objeto determinado en
función del tipo del fichero leı́do
generateAudio(Resources, String, int) Método que genera un Audio
concreto
Plataforma educativa basada en realidad aumentada y dispositivos móviles
251
– OBJObject
Constructores
Object3DCreator
private Object3DCreator( )
• Description
Constructor privado para que no se puedan crear instancias de esta clase
Métodos
createObject
public static Object3D createObject( android.content.res.Resources res, int id,
java.lang.String name, java.lang.String description, java.lang.String file,
java.lang.String type, java.lang.String texture, java.lang.String mediaPlayer,
int order ) throws
com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException
• Description
Método encargado de crear un objeto determinado en función del tipo del fichero leı́do
• Parameters
◦
◦
◦
◦
◦
◦
◦
◦
◦
res – Recursos de la aplicación
id – Identificador del objeto
name – Nombre del objeto
description – Descripción del objeto
file – Archivo leı́do
type – Tipo del fichero
texture – Imagen de textura
mediaPlayer – Audio asignado al objeto
order – Orden en que se almacerá
• Returns – El objeto creado
• Throws
◦ com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException – Se
lanzará una excepción si no coincide con ninguno de los tipos de objetos soportados en
la aplicación
generateAudio
private static audio.Audio generateAudio( android.content.res.Resources res,
java.lang.String audio, int id )
• Description
Método que genera un Audio concreto
• Parameters
◦ res – Recursos de la aplicación
◦ audio – URL del fichero de sonido
◦ id – Identificador del objeto al que se asociará el audio
• Returns – Una instancia concreta de Audio
B.5.6.
Clase OBJObject
Clase que representa un objeto con formato obj. Esta clase hereda de Ojbect3D
252
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– ARLocationListener
Declaración
public class OBJObject
extends com.ivanlorenzo.data.objects.Object3D (in B.5.3, page 247)
Constructor summary
OBJObject(int, String, String, String, String, Audio, int)
Constructor
Constructores
OBJObject
public OBJObject( int id, java.lang.String name, java.lang.String description,
java.lang.String file, java.lang.String texture, audio.Audio audio, int order )
• Description
Constructor
• Parameters
◦
◦
◦
◦
◦
◦
◦
id – Identificador del objeto
name – Nombre del objeto
description – Descripción del objeto
file – Fichero 3d
texture – Imagen de textura
audio – Audio del objeto
order – Número de orden en el que almacenará
Miembros heredados de la clase com.ivanlorenzo.data.objects.Object3D (in
B.5.3, page 247)
audio
description
file3D
public Audio getAudio( )
public int getAudioID( )
public String getDescription( )
public String getFile( )
public String getFileWithoutExtension( )
public int getId( )
public String getName( )
public int getOrder( )
public String getTexture( )
public Parser.Type getType( )
public boolean has3DFile( )
id
name
order
texture
Plataforma educativa basada en realidad aumentada y dispositivos móviles
253
– ARLocationListener
B.6.
Paquete com.ivanlorenzo.data.exceptions
B.7.
Paquete com.ivanlorenzo.location
B.7.1.
Clase ARLocationListener
Clase ”sujeto observable”del patrón observer que, a su vez, implemente LocationListener
y recibe cuándo se produce un cambio en la posición GPS y en caso de que esta posición
contenga cercano una localización de los ficheros de configuración, notificará a todos los
observadores que debe mostrarse la información asociada a dicha posición.
Declaración
public class ARLocationListener
extends com.ivanlorenzo.location.observer.ARObservable (in B.3.3, page 213)
implements android.location.LocationListener
Field summary
distance Distancia máxima a la que mostraremos la información de las
posiciones
Constructor summary
ARLocationListener(IARObserver, float) Constructor de la clase que
recibe un observador y la distancia máxima de la nuestra a la que
mostrar información
Method summary
getLocationData(Location) Devuelve el estado de la localización.
onLocationChanged(Location)
onProviderDisabled(String)
onProviderEnabled(String)
onStatusChanged(String, int, Bundle)
Atributos
private float distance
• Distancia máxima a la que mostraremos la información de las posiciones
254
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– LocationData
Constructores
ARLocationListener
public ARLocationListener( observer.IARObserver observer, float distance )
• Description
Constructor de la clase que recibe un observador y la distancia máxima de la nuestra a la
que mostrar información
• Parameters
◦ observer – Observador
◦ distance – Distancia máxima de la nuestra a la que mostrar información
Métodos
getLocationData
private LocationData getLocationData( android.location.Location currentLocation
)
• Description
Devuelve el estado de la localización. En caso que exista alguna localización cercana,
devolverá el objeto asociado junto con el estado.
• Parameters
◦ currentLocation – Nuestra posición actual
• Returns – El estado de la localización
onLocationChanged
void onLocationChanged( android.location.Location arg0 )
onProviderDisabled
void onProviderDisabled( java.lang.String arg0 )
onProviderEnabled
void onProviderEnabled( java.lang.String arg0 )
onStatusChanged
void onStatusChanged( java.lang.String arg0, int arg1, android.os.Bundle arg2
)
Miembros heredados de la clase com.ivanlorenzo.location.observer.ARObservable
(in B.3.3, page 213)
public void addObserver( IARObserver observer )
protected data
public void notifyObservers( )
protected observers
public void removeObserver( IARObserver observer )
B.7.2.
Clase LocationData
Clase que representa el estado de la localización. Se implementa como un Singleton ya
que sólo queremos tener una única instancia
Plataforma educativa basada en realidad aumentada y dispositivos móviles
255
– LocationData
Declaración
public class LocationData
extends java.lang.Object
Field summary
instance Instancia de la clase
object Objeto 3D que se está mostrando
status Estado del sistema de realidad aumentada
Constructor summary
LocationData()
Method summary
getInstance() Devuelve la única instancia de la clase
getObject() Devuelve el objeto 3d que se mostrará
getStatus() Devuelve el estado del sistema
setObject(Object3D) Establece el objeto 3D que se muestra
setStatus(ARStatus) Establece el estado del sistema
Atributos
private static LocationData instance
• Instancia de la clase
private com.ivanlorenzo.gui.ARStatus status
• Estado del sistema de realidad aumentada
private com.ivanlorenzo.data.objects.Object3D object
• Objeto 3D que se está mostrando
Constructores
LocationData
public LocationData( )
Métodos
getInstance
public static LocationData getInstance( )
• Description
Devuelve la única instancia de la clase
• Returns – Instancia
256
Plataforma educativa basada en realidad aumentada y dispositivos móviles
B.8. Paquete com.ivanlorenzo.gui.dialogs
getObject
public com.ivanlorenzo.data.objects.Object3D getObject( )
• Description
Devuelve el objeto 3d que se mostrará
• Returns – El objeto a mostrar
getStatus
public com.ivanlorenzo.gui.ARStatus getStatus( )
• Description
Devuelve el estado del sistema
• Returns – Estado
setObject
public void setObject( com.ivanlorenzo.data.objects.Object3D object )
• Description
Establece el objeto 3D que se muestra
• Parameters
◦ object – Objeto 3D a mostrar
setStatus
public void setStatus( com.ivanlorenzo.gui.ARStatus status )
• Description
Establece el estado del sistema
• Parameters
◦ status – Estado establecido
B.8.
Paquete com.ivanlorenzo.gui.dialogs
B.8.1.
Clase DialogType
Enumeración de los tipos de diálogos de la aplicación
Declaración
public final class DialogType
extends java.lang.Enum
Field summary
DIALOG ERROR CONNECTION
DIALOG EXIT
DIALOG LOADING
Constructor summary
DialogType()
Plataforma educativa basada en realidad aumentada y dispositivos móviles
257
– AugmentedRealityXMLCompiler
Method summary
valueOf(String)
values()
Atributos
public static final DialogType DIALOG LOADING
public static final DialogType DIALOG ERROR CONNECTION
public static final DialogType DIALOG EXIT
Constructores
DialogType
private DialogType( )
Métodos
valueOf
public static DialogType valueOf( java.lang.String name )
values
public static DialogType[] values( )
Miembros heredados de la clase java.lang.Enum
protected final Object clone( ) throws CloneNotSupportedException
public final int compareTo( Enum arg0 )
public final boolean equals( Object arg0 )
protected final void finalize( )
public final Class getDeclaringClass( )
public final int hashCode( )
private final name
public final String name( )
private final ordinal
public final int ordinal( )
private void readObject( java.io.ObjectInputStream arg0 ) throws
java.io.IOException, java.lang.ClassNotFoundException
private void readObjectNoData( ) throws java.io.ObjectStreamException
public String toString( )
public static Enum valueOf( Class arg0, String arg1 )
B.9.
Paquete com.ivanlorenzo.data
B.9.1.
Clase AugmentedRealityXMLCompiler
Clase hija de XMLCompiler encargada de compilar el fichero XML que contiene la
información sobre los patrones (markers) y las posiciones GPS
258
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– AugmentedRealityXMLCompiler
Declaración
public class AugmentedRealityXMLCompiler
extends com.ivanlorenzo.data.XMLCompiler (in B.9.7, page 270)
Constructor summary
AugmentedRealityXMLCompiler()
Method summary
load(Resources, String, String, String, String) Método que carga los
patrones
scanDocument(Resources, String, String) Busca todos los patrones y
localizaciones del fichero XML y los guarda en la base de conocimiento
Constructores
AugmentedRealityXMLCompiler
public AugmentedRealityXMLCompiler( )
Métodos
load
public void load( android.content.res.Resources res, java.lang.String
urlXMLPatterns, java.lang.String urlXSDPatterns, java.lang.String
urlXMLObjects, java.lang.String urlXSDObjects ) throws
com.ivanlorenzo.data.exceptions.LoadXMLException,
javax.xml.xpath.XPathExpressionException,
com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException,
java.io.IOException
• Description
Método que carga los patrones
• Parameters
◦
◦
◦
◦
◦
res – Recursos de la aplicación
urlXMLPatterns – Ruta del fichero XML de patrones
urlXSDPatterns – Ruta del fichero XSD de patrones
urlXMLObjects – Ruta del fichero XML de objetos
urlXSDObjects – Ruta del fichero XSD de objetos
• Throws
◦ com.ivanlorenzo.data.exceptions.LoadXMLException – Si hay errores en la carga
◦ javax.xml.xpath.XPathExpressionException – Si se produce un error en una
expresión XPath
◦ com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException – Si el
objeto no tiene una extensión 3D válida
◦ java.io.IOException – En caso de que no se pueda acceder a la URL lanzarı́a una
IOException
Plataforma educativa basada en realidad aumentada y dispositivos móviles
259
– CompilerGenerator
scanDocument
private void scanDocument( android.content.res.Resources res, java.lang.String
urlXMLObjects, java.lang.String urlXSDObjects ) throws
com.ivanlorenzo.data.exceptions.LoadXMLException,
javax.xml.xpath.XPathExpressionException,
com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException,
java.io.IOException
• Description
Busca todos los patrones y localizaciones del fichero XML y los guarda en la base de
conocimiento
• Parameters
◦ res – Recursos de la aplicación
◦ urlXMLObjects – Ruta del fichero XML de objetos
◦ urlXSDObjects – Ruta del fichero XSD de objetos
• Throws
◦ com.ivanlorenzo.data.exceptions.LoadXMLException – Si hay errores en la carga
◦ javax.xml.xpath.XPathExpressionException – Si se produce un error en una
expresión XPath
◦ com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException – Si el
objeto no tiene una extensión 3D válida
◦ java.io.IOException – En caso de que no se pueda acceder a la URL lanzarı́a una
IOException
Miembros heredados de la clase com.ivanlorenzo.data.XMLCompiler (in B.9.7,
page 270)
protected document
private InputStream getInputStream( java.net.URL url ) throws
java.io.IOException
protected void loadFile( boolean validate ) throws exceptions.LoadXMLException,
java.io.IOException
protected xml
protected xsd
B.9.2.
Clase CompilerGenerator
Clase que es la encargada de iniciar la carga de ficheros
Declaración
public class CompilerGenerator
extends java.lang.Object
Field summary
BASE Instancia del gestor de objetos
Constructor summary
CompilerGenerator()
260
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– GeoLocation
Method summary
compile(Resources, String, String, String, String) Método que se
llamará desde para cargar los datos
Atributos
public static final KnowledgeBase BASE
• Instancia del gestor de objetos
Constructores
CompilerGenerator
public CompilerGenerator( )
Métodos
compile
public static void compile( android.content.res.Resources res, java.lang.String
urlXMLPatterns, java.lang.String urlXSDPatterns, java.lang.String
urlXMLObjects, java.lang.String urlXSDObjects ) throws
com.ivanlorenzo.data.exceptions.LoadXMLException,
javax.xml.xpath.XPathExpressionException,
com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException,
java.io.IOException
• Description
Método que se llamará desde para cargar los datos
• Parameters
◦ res – Recursos de la aplicación
◦ urlXMLPatterns – Fichero XML con los patrones
◦ urlXSDPatterns – Fichero XSD de los patrones
◦ urlXMLObjects – Fichero XML con los objetos
◦ urlXSDObjects – Fichero XSD de los objetos
• Throws
◦ com.ivanlorenzo.data.exceptions.LoadXMLException – Si hay algún error en la
carga
◦ javax.xml.xpath.XPathExpressionException – Si se produce un error en una
expresión XPath
◦ com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException – Si el
objeto no tiene una extensión 3D válida
◦ java.io.IOException – En caso de que no se pueda acceder a la URL lanzarı́a una
IOException
B.9.3.
Clase GeoLocation
Clase que se corresponde con una localización de los ficheros de configuración de la
aplicación. Tendrá un identificador, un nombre, una localización GPS y un objeto
asociado
Plataforma educativa basada en realidad aumentada y dispositivos móviles
261
– GeoLocation
Declaración
public class GeoLocation
extends java.lang.Object
Field summary
id Identificador de la localización
idObject Identificador del objeto asociado
location Localización GPS
name Nombre del lugar
Constructor summary
GeoLocation(int, String, double, double, int) Constructor en el que se
establecen los atributos
Method summary
getId() Devuelve el identificador de la localización
getIdObject() Devuelve el identificador del objeto asociado
getLocation() Devuelve la localización
getName() Devuelve el nombre del lugar
Atributos
private int id
• Identificador de la localización
private java.lang.String name
• Nombre del lugar
private android.location.Location location
• Localización GPS
private int idObject
• Identificador del objeto asociado
Constructores
GeoLocation
public GeoLocation( int id, java.lang.String name, double latitude, double
longitude, int idObject )
• Description
Constructor en el que se establecen los atributos
• Parameters
◦ id – Identificador de la localización
◦ name – Nombre del lugar
262
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– KnowledgeBase
◦ latitude – Latitud geográfica
◦ longitude – Longitud geográfica
◦ idObject – Identificador del objeto asoaciado
Métodos
getId
public int getId( )
• Description
Devuelve el identificador de la localización
• Returns – Identificador de la localización
getIdObject
public int getIdObject( )
• Description
Devuelve el identificador del objeto asociado
• Returns – Identificador del objeto asociado
getLocation
public android.location.Location getLocation( )
• Description
Devuelve la localización
• Returns – Localización
getName
public java.lang.String getName( )
• Description
Devuelve el nombre del lugar
• Returns – Nombre del lugar
B.9.4.
Clase KnowledgeBase
Clase Singleton que contiene la base de conocimiento de la aplicación. Contendr tanto la
lista de patrones (markers) como la lista de localizaciones y de objetos.
Declaración
public class KnowledgeBase
extends java.lang.Object
Field summary
instance Única instancia de la base de conocimiento
locations Lista de geolocalizaciones de la aplicación
objects Lista de objetos cargados en la aplicación
patterns Lista de patrones (markers) de la aplicación
Plataforma educativa basada en realidad aumentada y dispositivos móviles
263
– KnowledgeBase
Constructor summary
KnowledgeBase() Constructor sin parámetros que simplemente crea las
estructuras de datos para almacenar la información
Method summary
clear() Método que borra las listas de objetos y patrones
getInstance() Método estático que devuelve la única instancia de la clase
getLocations() Listado de localizaciones
getObject(int) Devuelve un objeto buscado por su identificador
getObjects() Devuelve la lista de objetos de la base de conocimiento
getObjectsToScene(Resources) Devuelve un listado de objetos que se
deben visualizar en la aplicación
getPattern(int) Devuelve el patrón que se corresponde con un identificador
getPatterns() Obtiene la lista de patrones de la base de conocimiento
getPatterns(Resources) Devuelve una lista de flujo de bytes
correspondiente a los patrones
saveLocation(GeoLocation) Guarda una localización GPS
saveObject(Object3D) Guarda un objeto 3d
savePattern(Pattern) Guarda un patrón
Atributos
private static KnowledgeBase instance
• Única instancia de la base de conocimiento
private java.util.List patterns
• Lista de patrones (markers) de la aplicación
private java.util.List locations
• Lista de geolocalizaciones de la aplicación
private java.util.List objects
• Lista de objetos cargados en la aplicación
Constructores
KnowledgeBase
private KnowledgeBase( )
• Description
Constructor sin parámetros que simplemente crea las estructuras de datos para almacenar
la información
264
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– KnowledgeBase
Métodos
clear
public void clear( )
• Description
Método que borra las listas de objetos y patrones
getInstance
public static KnowledgeBase getInstance( )
• Description
Método estático que devuelve la única instancia de la clase
• Returns – La instancia de la clase
getLocations
public java.util.List getLocations( )
• Description
Listado de localizaciones
• Returns – Lista de geolocalizaciones de la base de conocimiento
getObject
public objects.Object3D getObject( int id )
• Description
Devuelve un objeto buscado por su identificador
• Parameters
◦ id – Identificador del objeto a buscar
• Returns – Objeto buscado
getObjects
public java.util.List getObjects( )
• Description
Devuelve la lista de objetos de la base de conocimiento
• Returns – Lista de objetos
getObjectsToScene
public java.util.List getObjectsToScene( android.content.res.Resources res )
• Description
Devuelve un listado de objetos que se deben visualizar en la aplicación
• Parameters
◦ res – Recursos de la aplicación
• Returns – Listado de objetos para ser visualizados
getPattern
public Pattern getPattern( int id )
• Description
Devuelve el patrón que se corresponde con un identificador
• Parameters
◦ id – Identificador del patrón
• Returns – Patrón buscado
Plataforma educativa basada en realidad aumentada y dispositivos móviles
265
– ObjectsXMLCompiler
getPatterns
public java.util.List getPatterns( )
• Description
Obtiene la lista de patrones de la base de conocimiento
• Returns – Lista de patrones
getPatterns
public java.util.ArrayList getPatterns( android.content.res.Resources res )
• Description
Devuelve una lista de flujo de bytes correspondiente a los patrones
• Parameters
◦ res – Recursos de la aplicación
• Returns – Lista de flujo de bytes correspondientes a los patrones
saveLocation
public void saveLocation( GeoLocation location )
• Description
Guarda una localización GPS
• Parameters
◦ location – Localización a guardar
saveObject
public void saveObject( objects.Object3D objData )
• Description
Guarda un objeto 3d
• Parameters
◦ objData – Objeto a guardar
savePattern
public void savePattern( Pattern patData )
• Description
Guarda un patrón
• Parameters
◦ patData – Patrón a guardar
B.9.5.
Clase ObjectsXMLCompiler
Clase hija de XMLCompiler encargada de compilar el fichero XML que contiene la
información sobre los objetos
Declaración
public class ObjectsXMLCompiler
extends com.ivanlorenzo.data.XMLCompiler (in B.9.7, page 270)
Constructor summary
ObjectsXMLCompiler()
266
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– ObjectsXMLCompiler
Method summary
load(Resources, String, String, int, int) Método que carga la
información de un objeto
searchObject(Resources, int, int) Busca todos un objeto determinado
del fichero XML y lo guarda en la base de conocimiento.
Constructores
ObjectsXMLCompiler
public ObjectsXMLCompiler( )
Métodos
load
public void load( android.content.res.Resources res, java.lang.String
urlXMLObjects, java.lang.String urlXSDObjects, int idObject, int order )
throws com.ivanlorenzo.data.exceptions.LoadXMLException,
javax.xml.xpath.XPathExpressionException,
com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException,
java.io.IOException
• Description
Método que carga la información de un objeto
• Parameters
◦ res – Recursos de la aplicación
◦ urlXMLObjects – Ruta del fichero XML de objetos
◦ urlXSDObjects – Ruta del fichero XSD de objetos
◦ idObject – Identificador del objeto a buscar
◦ order – Orden en que se cargará el objeto
• Throws
◦ com.ivanlorenzo.data.exceptions.LoadXMLException – Si hay errores en la carga
◦ javax.xml.xpath.XPathExpressionException – Si se produce un error en una
expresión XPath
◦ com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException – Si el
objeto no tiene una extensión 3D válida
◦ java.io.IOException – En caso de que no se pueda acceder a la URL lanzarı́a una
IOException
searchObject
private void searchObject( android.content.res.Resources res, int id, int order
) throws javax.xml.xpath.XPathExpressionException,
com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException
• Description
Busca todos un objeto determinado del fichero XML y lo guarda en la base de
conocimiento.
• Parameters
◦ res – Recursos de la aplicación
◦ id – Identificador del objeto a buscar
◦ order – Orden en que se cargará el objeto
• Throws
Plataforma educativa basada en realidad aumentada y dispositivos móviles
267
– Pattern
◦ javax.xml.xpath.XPathExpressionException – Si se produce un error en una
expresión XPath
◦ com.ivanlorenzo.data.exceptions.NoSuchExtensionObject3DException – Si el
objeto no tiene una extensión 3D válida
Miembros heredados de la clase com.ivanlorenzo.data.XMLCompiler (in B.9.7,
page 270)
protected document
private InputStream getInputStream( java.net.URL url ) throws
java.io.IOException
protected void loadFile( boolean validate ) throws exceptions.LoadXMLException,
java.io.IOException
protected xml
protected xsd
B.9.6.
Clase Pattern
Clase que contiene las propiedades del patrón al que le irá asignado un objeto
Declaración
public class Pattern
extends java.lang.Object
Field summary
id Identificador del patrón
idObject Identificador del objeto que tiene asignado
name Nombre del patrón
Constructor summary
Pattern() Constructor sin parámetros
Pattern(int, String, int) Constructor
Method summary
getId() Devuelve el identificador del patrón
getIdObject() Devuelve el identificador del objeto asignado al patrón
getName() Devuelve el nombre del patrón
setId(int) Establece el identificador del patrón
setIdObject(int) Establece el identificador del objeto asignado al patrón
setName(String) Establece el nombre del patrón
268
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– Pattern
Atributos
private int id
• Identificador del patrón
private java.lang.String name
• Nombre del patrón
private int idObject
• Identificador del objeto que tiene asignado
Constructores
Pattern
public Pattern( )
• Description
Constructor sin parámetros
Pattern
public Pattern( int id, java.lang.String name, int idObject )
• Description
Constructor
• Parameters
◦ id – Identificador del patrón
◦ name – Nombre del patrón
◦ idObject – Identificador del objeto que tiene asignado
Métodos
getId
public int getId( )
• Description
Devuelve el identificador del patrón
• Returns – Identificador del patrón
getIdObject
public int getIdObject( )
• Description
Devuelve el identificador del objeto asignado al patrón
• Returns – Identificador del objeto asignado al patrón
getName
public java.lang.String getName( )
• Description
Devuelve el nombre del patrón
• Returns – El nombre del patrón
Plataforma educativa basada en realidad aumentada y dispositivos móviles
269
– XMLCompiler
setId
public void setId( int id )
• Description
Establece el identificador del patrón
• Parameters
◦ id – Identificador del patrón
setIdObject
public void setIdObject( int idObject )
• Description
Establece el identificador del objeto asignado al patrón
• Parameters
◦ idObject – Identificador del objeto asignado al patrón
setName
public void setName( java.lang.String name )
• Description
Establece el nombre del patrón
• Parameters
◦ name – El nombre del patrón
B.9.7.
Clase XMLCompiler
Clase genérica abstracta encargada de la compilación de ficheros XML
Declaración
public abstract class XMLCompiler
extends java.lang.Object
Field summary
document Documento DOM que representa el juego
xml Url del fichero XML a cargar
xsd URl del fichero XSD a cargar
Constructor summary
XMLCompiler()
Method summary
getInputStream(URL) Devuelve un flujo de bytes del recurso que se
encuentra en la url pasada
loadFile(boolean) Carga en el documento DOM el fichero XML
270
Plataforma educativa basada en realidad aumentada y dispositivos móviles
B.10. Paquete com.ivanlorenzo.connection
Atributos
protected java.lang.String xml
• Url del fichero XML a cargar
protected java.lang.String xsd
• URl del fichero XSD a cargar
protected org.w3c.dom.Document document
• Documento DOM que representa el juego
Constructores
XMLCompiler
public XMLCompiler( )
Métodos
getInputStream
private java.io.InputStream getInputStream( java.net.URL url ) throws
java.io.IOException
• Description
Devuelve un flujo de bytes del recurso que se encuentra en la url pasada
• Parameters
◦ url – La dirección donde se cuentra el recurso a abrir
• Returns – Flujo de bytes del recurso
• Throws
◦ java.io.IOException – En caso de que no se pueda acceder a la URL lanzarı́a una
IOException
loadFile
protected void loadFile( boolean validate ) throws
com.ivanlorenzo.data.exceptions.LoadXMLException, java.io.IOException
• Description
Carga en el documento DOM el fichero XML
• Parameters
◦ validate – Si el fichero XML se validará con un DTD
• Throws
◦ com.ivanlorenzo.data.exceptions.LoadXMLException – Si hay errores en la carga
◦ java.io.IOException – Se puede producir una excepción si no encuentra el recurso
en la URL
B.10.
Paquete com.ivanlorenzo.connection
B.10.1.
Clase ConnectionStatus
Clase que utilizaremos para comprobar el estado de la conexión a Internet
Plataforma educativa basada en realidad aumentada y dispositivos móviles
271
– TFGPreferencesActivity
Declaración
public class ConnectionStatus
extends java.lang.Object
Constructor summary
ConnectionStatus()
Method summary
checkInternetConnection(Context) Comprueba si tenemos o no
conexión a Internet
Constructores
ConnectionStatus
public ConnectionStatus( )
Métodos
checkInternetConnection
public static boolean checkInternetConnection( android.content.Context context )
• Description
Comprueba si tenemos o no conexión a Internet
• Parameters
◦ context – El contexto de la aplicación
• Returns – Devuelve verdadero en caso de tener conexión y falso en caso contrario
B.11.
Paquete com.ivanlorenzo.gui.preferences
B.11.1.
Clase TFGPreferencesActivity
Activity que gestiona las preferencias del usuario. Carga las preferencias del recurso
preferences.xml
Declaración
public class TFGPreferencesActivity
extends android.preference.PreferenceActivity
Constructor summary
TFGPreferencesActivity()
272
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGPreferencesActivity
Method summary
onCreate(Bundle)
Constructores
TFGPreferencesActivity
public TFGPreferencesActivity( )
Métodos
onCreate
protected void onCreate( android.os.Bundle arg0 )
Miembros heredados de la clase android.preference.PreferenceActivity
public void addPreferencesFromIntent( android.content.Intent arg0 )
public void addPreferencesFromResource( int arg0 )
public Preference findPreference( java.lang.CharSequence arg0 )
public PreferenceManager getPreferenceManager( )
public PreferenceScreen getPreferenceScreen( )
protected void onActivityResult( int arg0, int arg1, android.content.Intent arg2
)
public void onContentChanged( )
protected void onCreate( android.os.Bundle arg0 )
protected void onDestroy( )
protected void onNewIntent( android.content.Intent arg0 )
public boolean onPreferenceTreeClick( PreferenceScreen arg0, Preference arg1 )
protected void onRestoreInstanceState( android.os.Bundle arg0 )
protected void onSaveInstanceState( android.os.Bundle arg0 )
protected void onStop( )
public void setPreferenceScreen( PreferenceScreen arg0 )
Miembros heredados de la clase android.app.ListActivity
public ListAdapter getListAdapter( )
public ListView getListView( )
public long getSelectedItemId( )
public int getSelectedItemPosition( )
public void onContentChanged( )
protected void onDestroy( )
protected void onListItemClick( android.widget.ListView arg0, android.view.View
arg1, int arg2, long arg3 )
protected void onRestoreInstanceState( android.os.Bundle arg0 )
public void setListAdapter( android.widget.ListAdapter arg0 )
public void setSelection( int arg0 )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
273
– TFGPreferencesActivity
Miembros heredados de la clase android.app.Activity
static void ( )
public void addContentView( android.view.View arg0,
android.view.ViewGroup.LayoutParams arg1 )
public void closeContextMenu( )
public void closeOptionsMenu( )
public PendingIntent createPendingResult( int arg0, android.content.Intent arg1,
int arg2 )
public static final DEFAULT KEYS DIALER
public static final DEFAULT KEYS DISABLE
public static final DEFAULT KEYS SEARCH GLOBAL
public static final DEFAULT KEYS SEARCH LOCAL
public static final DEFAULT KEYS SHORTCUT
public final void dismissDialog( int arg0 )
public boolean dispatchKeyEvent( android.view.KeyEvent arg0 )
public boolean dispatchPopulateAccessibilityEvent(
android.view.accessibility.AccessibilityEvent arg0 )
public boolean dispatchTouchEvent( android.view.MotionEvent arg0 )
public boolean dispatchTrackballEvent( android.view.MotionEvent arg0 )
public View findViewById( int arg0 )
public void finish( )
public void finishActivity( int arg0 )
public void finishActivityFromChild( Activity arg0, int arg1 )
public void finishFromChild( Activity arg0 )
protected static final FOCUSED STATE SET
public final Application getApplication( )
public ComponentName getCallingActivity( )
public String getCallingPackage( )
public int getChangingConfigurations( )
public ComponentName getComponentName( )
public View getCurrentFocus( )
public static long getInstanceCount( )
public Intent getIntent( )
public Object getLastNonConfigurationInstance( )
public LayoutInflater getLayoutInflater( )
public String getLocalClassName( )
public MenuInflater getMenuInflater( )
public final Activity getParent( )
public SharedPreferences getPreferences( int arg0 )
public int getRequestedOrientation( )
public Object getSystemService( java.lang.String arg0 )
public int getTaskId( )
public final CharSequence getTitle( )
public final int getTitleColor( )
public final int getVolumeControlStream( )
public int getWallpaperDesiredMinimumHeight( )
public int getWallpaperDesiredMinimumWidth( )
public Window getWindow( )
public WindowManager getWindowManager( )
public boolean hasWindowFocus( )
public final boolean isChild( )
public boolean isFinishing( )
public boolean isTaskRoot( )
public final Cursor managedQuery( android.net.Uri arg0, java.lang.String[]
arg1, java.lang.String arg2, java.lang.String[] arg3, java.lang.String arg4 )
public boolean moveTaskToBack( boolean arg0 )
protected void onActivityResult( int arg0, int arg1, android.content.Intent arg2
)
protected void onApplyThemeResource( android.content.res.Resources.Theme
arg0, int arg1, boolean arg2 )
public void onAttachedToWindow( )
public void onBackPressed( )
protected void onChildTitleChanged( Activity arg0, java.lang.CharSequence arg1
)
public void onConfigurationChanged( android.content.res.Configuration arg0 )
public void onContentChanged( )
274
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGPreferencesActivity
public boolean onContextItemSelected( android.view.MenuItem arg0 )
public void onContextMenuClosed( android.view.Menu arg0 )
protected void onCreate( android.os.Bundle arg0 )
public void onCreateContextMenu( android.view.ContextMenu arg0,
android.view.View arg1, android.view.ContextMenu.ContextMenuInfo arg2 )
public CharSequence onCreateDescription( )
protected Dialog onCreateDialog( int arg0 )
protected Dialog onCreateDialog( int arg0, android.os.Bundle arg1 )
public boolean onCreateOptionsMenu( android.view.Menu arg0 )
public boolean onCreatePanelMenu( int arg0, android.view.Menu arg1 )
public View onCreatePanelView( int arg0 )
public boolean onCreateThumbnail( android.graphics.Bitmap arg0,
android.graphics.Canvas arg1 )
public View onCreateView( java.lang.String arg0, android.content.Context arg1,
android.util.AttributeSet arg2 )
protected void onDestroy( )
public void onDetachedFromWindow( )
public boolean onKeyDown( int arg0, android.view.KeyEvent arg1 )
public boolean onKeyLongPress( int arg0, android.view.KeyEvent arg1 )
public boolean onKeyMultiple( int arg0, int arg1, android.view.KeyEvent arg2 )
public boolean onKeyUp( int arg0, android.view.KeyEvent arg1 )
public void onLowMemory( )
public boolean onMenuItemSelected( int arg0, android.view.MenuItem arg1 )
public boolean onMenuOpened( int arg0, android.view.Menu arg1 )
protected void onNewIntent( android.content.Intent arg0 )
public boolean onOptionsItemSelected( android.view.MenuItem arg0 )
public void onOptionsMenuClosed( android.view.Menu arg0 )
public void onPanelClosed( int arg0, android.view.Menu arg1 )
protected void onPause( )
protected void onPostCreate( android.os.Bundle arg0 )
protected void onPostResume( )
protected void onPrepareDialog( int arg0, Dialog arg1 )
protected void onPrepareDialog( int arg0, Dialog arg1, android.os.Bundle arg2 )
public boolean onPrepareOptionsMenu( android.view.Menu arg0 )
public boolean onPreparePanel( int arg0, android.view.View arg1,
android.view.Menu arg2 )
protected void onRestart( )
protected void onRestoreInstanceState( android.os.Bundle arg0 )
protected void onResume( )
public Object onRetainNonConfigurationInstance( )
protected void onSaveInstanceState( android.os.Bundle arg0 )
public boolean onSearchRequested( )
protected void onStart( )
protected void onStop( )
protected void onTitleChanged( java.lang.CharSequence arg0, int arg1 )
public boolean onTouchEvent( android.view.MotionEvent arg0 )
public boolean onTrackballEvent( android.view.MotionEvent arg0 )
public void onUserInteraction( )
protected void onUserLeaveHint( )
public void onWindowAttributesChanged(
android.view.WindowManager.LayoutParams arg0 )
public void onWindowFocusChanged( boolean arg0 )
public void openContextMenu( android.view.View arg0 )
public void openOptionsMenu( )
public void overridePendingTransition( int arg0, int arg1 )
public void registerForContextMenu( android.view.View arg0 )
public final void removeDialog( int arg0 )
public final boolean requestWindowFeature( int arg0 )
public static final RESULT CANCELED
public static final RESULT FIRST USER
public static final RESULT OK
public final void runOnUiThread( java.lang.Runnable arg0 )
public void setContentView( int arg0 )
public void setContentView( android.view.View arg0 )
public void setContentView( android.view.View arg0,
android.view.ViewGroup.LayoutParams arg1 )
public final void setDefaultKeyMode( int arg0 )
public final void setFeatureDrawable( int arg0,
android.graphics.drawable.Drawable arg1 )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
275
– TFGPreferencesActivity
public final void setFeatureDrawableAlpha( int arg0, int arg1 )
public final void setFeatureDrawableResource( int arg0, int arg1 )
public final void setFeatureDrawableUri( int arg0, android.net.Uri arg1 )
public void setIntent( android.content.Intent arg0 )
public void setPersistent( boolean arg0 )
public final void setProgress( int arg0 )
public final void setProgressBarIndeterminate( boolean arg0 )
public final void setProgressBarIndeterminateVisibility( boolean arg0 )
public final void setProgressBarVisibility( boolean arg0 )
public void setRequestedOrientation( int arg0 )
public final void setResult( int arg0 )
public final void setResult( int arg0, android.content.Intent arg1 )
public final void setSecondaryProgress( int arg0 )
public void setTitle( java.lang.CharSequence arg0 )
public void setTitle( int arg0 )
public void setTitleColor( int arg0 )
public void setVisible( boolean arg0 )
public final void setVolumeControlStream( int arg0 )
public final void showDialog( int arg0 )
public final boolean showDialog( int arg0, android.os.Bundle arg1 )
public void startActivity( android.content.Intent arg0 )
public void startActivityForResult( android.content.Intent arg0, int arg1 )
public void startActivityFromChild( Activity arg0, android.content.Intent arg1,
int arg2 )
public boolean startActivityIfNeeded( android.content.Intent arg0, int arg1 )
public void startIntentSender( android.content.IntentSender arg0,
android.content.Intent arg1, int arg2, int arg3, int arg4 ) throws
android.content.IntentSender.SendIntentException
public void startIntentSenderForResult( android.content.IntentSender arg0, int
arg1, android.content.Intent arg2, int arg3, int arg4, int arg5 ) throws
android.content.IntentSender.SendIntentException
public void startIntentSenderFromChild( Activity arg0,
android.content.IntentSender arg1, int arg2, android.content.Intent arg3, int
arg4, int arg5, int arg6 ) throws
android.content.IntentSender.SendIntentException
public void startManagingCursor( android.database.Cursor arg0 )
public boolean startNextMatchingActivity( android.content.Intent arg0 )
public void startSearch( java.lang.String arg0, boolean arg1, android.os.Bundle
arg2, boolean arg3 )
public void stopManagingCursor( android.database.Cursor arg0 )
public void takeKeyEvents( boolean arg0 )
public void triggerSearch( java.lang.String arg0, android.os.Bundle arg1 )
public void unregisterForContextMenu( android.view.View arg0 )
Miembros heredados de la clase android.view.ContextThemeWrapper
protected void attachBaseContext( android.content.Context arg0 )
public Object getSystemService( java.lang.String arg0 )
public Resources.Theme getTheme( )
protected void onApplyThemeResource( android.content.res.Resources.Theme
arg0, int arg1, boolean arg2 )
public void setTheme( int arg0 )
276
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGPreferencesActivity
Miembros heredados de la clase android.content.ContextWrapper
protected void attachBaseContext( Context arg0 )
public boolean bindService( Intent arg0, ServiceConnection arg1, int arg2 )
public int checkCallingOrSelfPermission( java.lang.String arg0 )
public int checkCallingOrSelfUriPermission( android.net.Uri arg0, int arg1 )
public int checkCallingPermission( java.lang.String arg0 )
public int checkCallingUriPermission( android.net.Uri arg0, int arg1 )
public int checkPermission( java.lang.String arg0, int arg1, int arg2 )
public int checkUriPermission( android.net.Uri arg0, int arg1, int arg2, int
arg3 )
public int checkUriPermission( android.net.Uri arg0, java.lang.String arg1,
java.lang.String arg2, int arg3, int arg4, int arg5 )
public void clearWallpaper( ) throws java.io.IOException
public Context createPackageContext( java.lang.String arg0, int arg1 ) throws
pm.PackageManager.NameNotFoundException
public String databaseList( )
public boolean deleteDatabase( java.lang.String arg0 )
public boolean deleteFile( java.lang.String arg0 )
public void enforceCallingOrSelfPermission( java.lang.String arg0,
java.lang.String arg1 )
public void enforceCallingOrSelfUriPermission( android.net.Uri arg0, int arg1,
java.lang.String arg2 )
public void enforceCallingPermission( java.lang.String arg0, java.lang.String
arg1 )
public void enforceCallingUriPermission( android.net.Uri arg0, int arg1,
java.lang.String arg2 )
public void enforcePermission( java.lang.String arg0, int arg1, int arg2,
java.lang.String arg3 )
public void enforceUriPermission( android.net.Uri arg0, int arg1, int arg2, int
arg3, java.lang.String arg4 )
public void enforceUriPermission( android.net.Uri arg0, java.lang.String arg1,
java.lang.String arg2, int arg3, int arg4, int arg5, java.lang.String arg6 )
public String fileList( )
public Context getApplicationContext( )
public ApplicationInfo getApplicationInfo( )
public AssetManager getAssets( )
public Context getBaseContext( )
public File getCacheDir( )
public ClassLoader getClassLoader( )
public ContentResolver getContentResolver( )
public File getDatabasePath( java.lang.String arg0 )
public File getDir( java.lang.String arg0, int arg1 )
public File getExternalCacheDir( )
public File getExternalFilesDir( java.lang.String arg0 )
public File getFilesDir( )
public File getFileStreamPath( java.lang.String arg0 )
public Looper getMainLooper( )
public String getPackageCodePath( )
public PackageManager getPackageManager( )
public String getPackageName( )
public String getPackageResourcePath( )
public Resources getResources( )
public SharedPreferences getSharedPreferences( java.lang.String arg0, int arg1 )
public Object getSystemService( java.lang.String arg0 )
public Resources.Theme getTheme( )
public Drawable getWallpaper( )
public int getWallpaperDesiredMinimumHeight( )
public int getWallpaperDesiredMinimumWidth( )
public void grantUriPermission( java.lang.String arg0, android.net.Uri arg1, int
arg2 )
public boolean isRestricted( )
public FileInputStream openFileInput( java.lang.String arg0 ) throws
java.io.FileNotFoundException
public FileOutputStream openFileOutput( java.lang.String arg0, int arg1 )
throws java.io.FileNotFoundException
Plataforma educativa basada en realidad aumentada y dispositivos móviles
277
– TFGPreferencesActivity
public SQLiteDatabase openOrCreateDatabase( java.lang.String arg0, int arg1,
android.database.sqlite.SQLiteDatabase.CursorFactory arg2 )
public Drawable peekWallpaper( )
public Intent registerReceiver( BroadcastReceiver arg0, IntentFilter arg1 )
public Intent registerReceiver( BroadcastReceiver arg0, IntentFilter arg1,
java.lang.String arg2, android.os.Handler arg3 )
public void removeStickyBroadcast( Intent arg0 )
public void revokeUriPermission( android.net.Uri arg0, int arg1 )
public void sendBroadcast( Intent arg0 )
public void sendBroadcast( Intent arg0, java.lang.String arg1 )
public void sendOrderedBroadcast( Intent arg0, java.lang.String arg1 )
public void sendOrderedBroadcast( Intent arg0, java.lang.String arg1,
BroadcastReceiver arg2, android.os.Handler arg3, int arg4, java.lang.String
arg5, android.os.Bundle arg6 )
public void sendStickyBroadcast( Intent arg0 )
public void sendStickyOrderedBroadcast( Intent arg0, BroadcastReceiver arg1,
android.os.Handler arg2, int arg3, java.lang.String arg4, android.os.Bundle arg5
)
public void setTheme( int arg0 )
public void setWallpaper( android.graphics.Bitmap arg0 ) throws
java.io.IOException
public void setWallpaper( java.io.InputStream arg0 ) throws java.io.IOException
public void startActivity( Intent arg0 )
public boolean startInstrumentation( ComponentName arg0, java.lang.String arg1,
android.os.Bundle arg2 )
public void startIntentSender( IntentSender arg0, Intent arg1, int arg2, int
arg3, int arg4 ) throws IntentSender.SendIntentException
public ComponentName startService( Intent arg0 )
public boolean stopService( Intent arg0 )
public void unbindService( ServiceConnection arg0 )
public void unregisterReceiver( BroadcastReceiver arg0 )
Miembros heredados de la clase android.content.Context
public static final ACCESSIBILITY SERVICE
public static final ACCOUNT SERVICE
public static final ACTIVITY SERVICE
public static final ALARM SERVICE
public static final AUDIO SERVICE
public static final BIND AUTO CREATE
public static final BIND DEBUG UNBIND
public static final BIND NOT FOREGROUND
public abstract boolean bindService( Intent arg0, ServiceConnection arg1, int
arg2 )
public abstract int checkCallingOrSelfPermission( java.lang.String arg0 )
public abstract int checkCallingOrSelfUriPermission( android.net.Uri arg0, int
arg1 )
public abstract int checkCallingPermission( java.lang.String arg0 )
public abstract int checkCallingUriPermission( android.net.Uri arg0, int arg1 )
public abstract int checkPermission( java.lang.String arg0, int arg1, int arg2 )
public abstract int checkUriPermission( android.net.Uri arg0, int arg1, int
arg2, int arg3 )
public abstract int checkUriPermission( android.net.Uri arg0, java.lang.String
arg1, java.lang.String arg2, int arg3, int arg4, int arg5 )
public abstract void clearWallpaper( ) throws java.io.IOException
public static final CLIPBOARD SERVICE
public static final CONNECTIVITY SERVICE
public static final CONTEXT IGNORE SECURITY
public static final CONTEXT INCLUDE CODE
public static final CONTEXT RESTRICTED
public abstract Context createPackageContext( java.lang.String arg0, int arg1 )
throws pm.PackageManager.NameNotFoundException
public abstract String databaseList( )
public abstract boolean deleteDatabase( java.lang.String arg0 )
278
Plataforma educativa basada en realidad aumentada y dispositivos móviles
– TFGPreferencesActivity
public abstract boolean deleteFile( java.lang.String arg0 )
public static final DEVICE POLICY SERVICE
public static final DROPBOX SERVICE
public abstract void enforceCallingOrSelfPermission( java.lang.String arg0,
java.lang.String arg1 )
public abstract void enforceCallingOrSelfUriPermission( android.net.Uri arg0,
int arg1, java.lang.String arg2 )
public abstract void enforceCallingPermission( java.lang.String arg0,
java.lang.String arg1 )
public abstract void enforceCallingUriPermission( android.net.Uri arg0, int
arg1, java.lang.String arg2 )
public abstract void enforcePermission( java.lang.String arg0, int arg1, int
arg2, java.lang.String arg3 )
public abstract void enforceUriPermission( android.net.Uri arg0, int arg1, int
arg2, int arg3, java.lang.String arg4 )
public abstract void enforceUriPermission( android.net.Uri arg0,
java.lang.String arg1, java.lang.String arg2, int arg3, int arg4, int arg5,
java.lang.String arg6 )
public abstract String fileList( )
public abstract Context getApplicationContext( )
public abstract ApplicationInfo getApplicationInfo( )
public abstract AssetManager getAssets( )
public abstract File getCacheDir( )
public abstract ClassLoader getClassLoader( )
public abstract ContentResolver getContentResolver( )
public abstract File getDatabasePath( java.lang.String arg0 )
public abstract File getDir( java.lang.String arg0, int arg1 )
public abstract File getExternalCacheDir( )
public abstract File getExternalFilesDir( java.lang.String arg0 )
public abstract File getFilesDir( )
public abstract File getFileStreamPath( java.lang.String arg0 )
public abstract Looper getMainLooper( )
public abstract String getPackageCodePath( )
public abstract PackageManager getPackageManager( )
public abstract String getPackageName( )
public abstract String getPackageResourcePath( )
public abstract Resources getResources( )
public abstract SharedPreferences getSharedPreferences( java.lang.String arg0,
int arg1 )
public final String getString( int arg0 )
public final String getString( int arg0, java.lang.Object[] arg1 )
public abstract Object getSystemService( java.lang.String arg0 )
public final CharSequence getText( int arg0 )
public abstract Resources.Theme getTheme( )
public abstract Drawable getWallpaper( )
public abstract int getWallpaperDesiredMinimumHeight( )
public abstract int getWallpaperDesiredMinimumWidth( )
public abstract void grantUriPermission( java.lang.String arg0, android.net.Uri
arg1, int arg2 )
public static final INPUT METHOD SERVICE
public boolean isRestricted( )
public static final KEYGUARD SERVICE
public static final LAYOUT INFLATER SERVICE
public static final LOCATION SERVICE
public static final MODE APPEND
public static final MODE PRIVATE
public static final MODE WORLD READABLE
public static final MODE WORLD WRITEABLE
public static final NOTIFICATION SERVICE
public final TypedArray obtainStyledAttributes( android.util.AttributeSet arg0,
int[] arg1 )
public final TypedArray obtainStyledAttributes( android.util.AttributeSet arg0,
int[] arg1, int arg2, int arg3 )
public final TypedArray obtainStyledAttributes( int[] arg0 )
public final TypedArray obtainStyledAttributes( int arg0, int[] arg1 ) throws
res.Resources.NotFoundException
Plataforma educativa basada en realidad aumentada y dispositivos móviles
279
– TFGPreferencesActivity
public abstract FileInputStream openFileInput( java.lang.String arg0 ) throws
java.io.FileNotFoundException
public abstract FileOutputStream openFileOutput( java.lang.String arg0, int
arg1 ) throws java.io.FileNotFoundException
public abstract SQLiteDatabase openOrCreateDatabase( java.lang.String arg0,
int arg1, android.database.sqlite.SQLiteDatabase.CursorFactory arg2 )
public abstract Drawable peekWallpaper( )
public static final POWER SERVICE
public abstract Intent registerReceiver( BroadcastReceiver arg0, IntentFilter
arg1 )
public abstract Intent registerReceiver( BroadcastReceiver arg0, IntentFilter
arg1, java.lang.String arg2, android.os.Handler arg3 )
public abstract void removeStickyBroadcast( Intent arg0 )
public abstract void revokeUriPermission( android.net.Uri arg0, int arg1 )
public static final SEARCH SERVICE
public abstract void sendBroadcast( Intent arg0 )
public abstract void sendBroadcast( Intent arg0, java.lang.String arg1 )
public abstract void sendOrderedBroadcast( Intent arg0, java.lang.String arg1 )
public abstract void sendOrderedBroadcast( Intent arg0, java.lang.String arg1,
BroadcastReceiver arg2, android.os.Handler arg3, int arg4, java.lang.String
arg5, android.os.Bundle arg6 )
public abstract void sendStickyBroadcast( Intent arg0 )
public abstract void sendStickyOrderedBroadcast( Intent arg0, BroadcastReceiver
arg1, android.os.Handler arg2, int arg3, java.lang.String arg4,
android.os.Bundle arg5 )
public static final SENSOR SERVICE
public abstract void setTheme( int arg0 )
public abstract void setWallpaper( android.graphics.Bitmap arg0 ) throws
java.io.IOException
public abstract void setWallpaper( java.io.InputStream arg0 ) throws
java.io.IOException
public abstract void startActivity( Intent arg0 )
public abstract boolean startInstrumentation( ComponentName arg0,
java.lang.String arg1, android.os.Bundle arg2 )
public abstract void startIntentSender( IntentSender arg0, Intent arg1, int
arg2, int arg3, int arg4 ) throws IntentSender.SendIntentException
public abstract ComponentName startService( Intent arg0 )
public abstract boolean stopService( Intent arg0 )
public static final TELEPHONY SERVICE
public static final UI MODE SERVICE
public abstract void unbindService( ServiceConnection arg0 )
public abstract void unregisterReceiver( BroadcastReceiver arg0 )
public static final VIBRATOR SERVICE
public static final WALLPAPER SERVICE
public static final WIFI SERVICE
public static final WINDOW SERVICE
280
Plataforma educativa basada en realidad aumentada y dispositivos móviles
Apéndice C
Código Fuente
En éste último apéndice, se mostrarán todos los listados de código que componen el
proyecto.
C.1.
Ficheros de configuración XML
C.1.1.
Fichero patterns.xml
Éste el es fichero que contiene información sobre los patrones y las localizaciones.
patterns.xml
<?xml version="1.0" e n c o d i n g="UTF -8" ?>
<AR>
<p a t t e r n i d = "1" name=" pattc " >
<o b j e c t i d="5"/>
</ p a t t e r n>
<p a t t e r n i d = "2" name=" pattf " >
<o b j e c t i d="9"/>
</ p a t t e r n>
<p a t t e r n i d = "3" name=" patta " >
<o b j e c t i d="3"/>
</ p a t t e r n>
< !−−
<p a t t e r n i d = "2" name="F" path=" multi /patt.f">
<o b j e c t i d="1"/>
</ p a t t e r n>
<p a t t e r n i d = "5" name="C" path=" multi /patt.c">
<o b j e c t i d="8"/>
</ p a t t e r n>
<p a t t e r n i d = "3" name="B" path=" multi /patt.b">
281
C. Código Fuente
<o b j e c t i d="4"/>
</ p a t t e r n>
<p a t t e r n i d = "4" name="G" path=" multi /patt.g">
<o b j e c t i d="3"/>
</ p a t t e r n>
−−>
<l o c a t i o n i d = "1" name="Mi casa" l a t=" 43.4059 " l o n g=" -5.8052" >
<o b j e c t i d="1"/>
</ l o c a t i o n>
</AR>
Fichero de configuración C.1: patterns.xml
C.1.2.
Fichero objects.xml
Es el fichero que contiene información sobre los objetos.
objects.xml
<?xml version="1.0" e n c o d i n g="UTF -8" ?>
<o b j e c t s>
<o b j e c t i d="1" name=" Grillo ">
<d e s c r i p t i o n>Comentario s o b r e e l g r i l l o</ d e s c r i p t i o n>
< f i l e 3 d s>h t t p : // t f g . i v a n l o r e n z o . e s / data / o b j e c t s / s a l t a m o n t e s
. 3 ds</ f i l e 3 d s>
<sound>h t t p : // t f g . i v a n l o r e n z o . e s / data / sounds / s a l t a m o n t e s .
mp3</ sound>
</ o b j e c t>
<o b j e c t i d="3" name=" Carpa Dorada ">
<d e s c r i p t i o n>Carpa Dorada</ d e s c r i p t i o n>
< f i l e 3 d s>h t t p : // t f g . i v a n l o r e n z o . e s / data / o b j e c t s / c a r p a . 3 ds</
f i l e 3 d s>
<sound>h t t p : // t f g . i v a n l o r e n z o . e s / data / sounds / c a r p a . mp3</
sound>
</ o b j e c t>
<o b j e c t i d="2" name="Pez Espada ">
<d e s c r i p t i o n>Pez Espada</ d e s c r i p t i o n>
< f i l e 3 d s>h t t p : // t f g . i v a n l o r e n z o . e s / data / o b j e c t s / espada . 3 ds<
/ f i l e 3 d s>
<sound>h t t p : // t f g . i v a n l o r e n z o . e s / data / sounds / espada . mp3</
sound>
</ o b j e c t>
<o b j e c t i d="4" name=" Pensamientos ">
<d e s c r i p t i o n>Pensamientos</ d e s c r i p t i o n>
< f i l e 3 d s>h t t p : // t f g . i v a n l o r e n z o . e s / data / o b j e c t s /
p e n s a m i e n t o s . 3 ds</ f i l e 3 d s>
282
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.1. Ficheros de configuración XML
</ o b j e c t>
<o b j e c t i d="5" name=" Delfin ">
<d e s c r i p t i o n>D e l f i n</ d e s c r i p t i o n>
< f i l e 3 d s>h t t p : // t f g . i v a n l o r e n z o . e s / data / o b j e c t s / d e l f i n . 3 ds<
/ f i l e 3 d s>
</ o b j e c t>
<o b j e c t i d="6" name=" Ballena Jorobada ">
<d e s c r i p t i o n>B a l l e n a Jorobada</ d e s c r i p t i o n>
< f i l e 3 d s>h t t p : // t f g . i v a n l o r e n z o . e s / data / o b j e c t s / b a l l e n a . 3 ds
</ f i l e 3 d s>
</ o b j e c t>
<o b j e c t i d="20" name=" Cuadro ">
<d e s c r i p t i o n>Un cuadro en e l que meter v a r i a s imagenes</
d e s c r i p t i o n>
< f i l e 3 d s>h t t p : // t f g . i v a n l o r e n z o . e s / data / o b j e c t s / p i c t u r e I v a n
. 3 ds</ f i l e 3 d s>
</ o b j e c t>
<o b j e c t i d="7" name="Rosa">
<t e x t u r e>YukiTuT . j p g</ t e x t u r e>
< f i l e 3 d s>YukiTubaki . 3 ds</ f i l e 3 d s>
</ o b j e c t>
<o b j e c t i d="9" name="Nala">
<t e x t u r e>h t t p : // t f g . i v a n l o r e n z o . e s / data / o b j e c t s / Nala . png</
t e x t u r e>
</ o b j e c t>
<o b j e c t i d="8" name=" Gioconda ">
<d e s c r i p t i o n>El cuadro La Gioconda , c o n o c i d o tambien como
l a Mona L i s a , e s una obra p i c t o r i c a de Leonardo da V i n c i
que nunca ha s i d o t a s a d a .
Desde e l s i g l o XVI e s p r o p i e d a d d e l Estado Frances , e l c u a l
l a expone en e l museo d e l Louvre .
Su nombre o f i c i a l e s Gioconda ( cuya t r a d u c c i o n d e l i t a l i a n o
a l c a s t e l l a n o e s a l e g r e ) en honor a l a t e s i s mas f u e r t e
a c e r c a de l a i d e n t i d a d de l a modelo , apoyada en que e r a
e s p o s a de F r a n c e s c o Bartolomeo d e l Giocondo
y que su nombre e r a L i s a G h e r a r d i n i .</ d e s c r i p t i o n>
<sound>h t t p : // t f g . i v a n l o r e n z o . e s / data / sounds / g i o . mp3</ sound
>
<t e x t u r e>h t t p : // t f g . i v a n l o r e n z o . e s / data / o b j e c t s / g i o . j p g</
t e x t u r e>
</ o b j e c t>
</ o b j e c t s>
Fichero de configuración C.2: objects.xml
Plataforma educativa basada en realidad aumentada y dispositivos móviles
283
C. Código Fuente
C.1.3.
Fichero patterns.xsd
Éste el es fichero que valida patterns.xml
patterns.xsd
<?xml version="1.0" e n c o d i n g="UTF -8" ?>
<x s : s c h e m a x m l n s : x s=" http: // www.w3.org /2001/ XMLSchema " elementFormDefault="
qualified ">
<x s : e l e m e n t name="AR">
<xs:complexType>
<x s : s e q u e n c e>
<x s : e l e m e n t maxOccurs=" unbounded " r e f=" pattern "/>
<x s : e l e m e n t maxOccurs=" unbounded " r e f=" location "/>
</ x s : s e q u e n c e>
</ xs:complexType>
</ x s : e l e m e n t>
<x s : e l e m e n t name=" pattern ">
<xs:complexType>
<x s : s e q u e n c e>
<x s : e l e m e n t maxOccurs=" unbounded " r e f=" object "/>
</ x s : s e q u e n c e>
< x s : a t t r i b u t e name="id" u s e=" required " type=" xs:NMTOKEN "/>
< x s : a t t r i b u t e name="name" u s e=" required "/>
</ xs:complexType>
</ x s : e l e m e n t>
<x s : e l e m e n t name=" location ">
<xs:complexType>
<x s : s e q u e n c e>
<x s : e l e m e n t maxOccurs=" unbounded " r e f=" object "/>
</ x s : s e q u e n c e>
< x s : a t t r i b u t e name="id" u s e=" required " type=" xs:NMTOKEN "/>
< x s : a t t r i b u t e name="name" u s e=" required "/>
< x s : a t t r i b u t e name="lat" u s e=" required "/>
< x s : a t t r i b u t e name="long" u s e=" required "/>
</ xs:complexType>
</ x s : e l e m e n t>
<x s : e l e m e n t name=" object ">
<xs:complexType>
< x s : a t t r i b u t e name="id" u s e=" required " type=" xs:NMTOKEN "/>
</ xs:complexType>
</ x s : e l e m e n t>
</ x s : s c h e m a>
Fichero de configuración C.3: patterns.xsd
C.1.4.
Fichero objects.xsd
Es el fichero que valida objects.xml
objects.xsd
284
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.2. Ficheros de recursos de la aplicación Android
<?xml version="1.0" e n c o d i n g="UTF -8" ?>
<x s : s c h e m a x m l n s : x s=" http: // www.w3.org /2001/ XMLSchema " elementFormDefault="
qualified ">
<x s : e l e m e n t name=" objects ">
<xs:complexType>
<x s : s e q u e n c e>
<x s : e l e m e n t maxOccurs=" unbounded " r e f=" object "/>
</ x s : s e q u e n c e>
</ xs:complexType>
</ x s : e l e m e n t>
<x s : e l e m e n t name=" object ">
<xs:complexType>
<x s : s e q u e n c e>
<x s : e l e m e n t minOccurs="0" r e f=" description "/>
<x s : e l e m e n t minOccurs="0" r e f=" sound "/>
<x s : e l e m e n t minOccurs="0" r e f=" texture "/>
<x s : e l e m e n t minOccurs="0" r e f=" file3ds "/>
</ x s : s e q u e n c e>
< x s : a t t r i b u t e name="id" u s e=" required " type=" xs:NMTOKEN "/>
< x s : a t t r i b u t e name="name" u s e=" required "/>
</ xs:complexType>
</ x s : e l e m e n t>
<x s : e l e m e n t name=" description " type=" xs:string "/>
<x s : e l e m e n t name=" sound " type=" xs:string "/>
<x s : e l e m e n t name=" texture " type=" xs:string "/>
<x s : e l e m e n t name=" file3ds " type=" xs:string "/>
</ x s : s c h e m a>
Fichero de configuración C.4: objects.xsd
C.2.
Ficheros de recursos de la aplicación Android
C.2.1.
Layout
Es el fichero de Layout de la aplicación
main.xml
<?xml version="1.0" e n c o d i n g="utf -8" ?>
<L i n e a r L a y o u t x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
a n d r o i d : i d="@+id/main"
a n d r o i d : o r i e n t a t i o n=" horizontal "
a n d r o i d : l a y o u t w i d t h=" fill_parent "
a n d r o i d : l a y o u t h e i g h t=" fill_parent ">
<FrameLayout a n d r o i d : i d="@+id/ frame "
a n d r o i d : l a y o u t w i d t h=" fill_parent "
a n d r o i d : l a y o u t h e i g h t=" fill_parent ">
<S u r f a c e V i e w a n d r o i d : i d="@+id/ camera_preview "
a n d r o i d : l a y o u t w i d t h=" fill_parent "
a n d r o i d : l a y o u t h e i g h t=" fill_parent "/>
</ FrameLayout>
</ L i n e a r L a y o u t>
Plataforma educativa basada en realidad aumentada y dispositivos móviles
285
C. Código Fuente
Fichero de recursos C.5: main.xml
C.2.2.
Menu
Es el fichero que configura el menú de la aplicación
menu.xml
<menu x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android ">
<item a n d r o i d : i d="@+id/ configuration "
a n d r o i d : t i t l e=" @string / configuration " />
<item a n d r o i d : i d="@+id/exit"
a n d r o i d : t i t l e=" @string /exit" />
</menu>
Fichero de recursos C.6: menu.xml
C.2.3.
Preferencias
preferences.xml
<?xml version="1.0" e n c o d i n g="utf -8" ?>
<P r e f e r e n c e S c r e e n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android
" >
<P r e f e r e n c e C a t e g o r y a n d r o i d : t i t l e="TFG Configuration ">
<E d i t T e x t P r e f e r e n c e
a n d r o i d : d i a l o g T i t l e=" @string / patterns_url "
a n d r o i d : d i a l o g M e s s a g e=" @string /
write_patterns_url "
a n d r o i d : k e y=" URL_PATTERNS "
a n d r o i d : t i t l e=" @string / patterns_and_locations "
android:summary=" @string / patterns_url "
a n d r o i d : d e f a u l t V a l u e=" @string / URL_PATTERNS "/>
<E d i t T e x t P r e f e r e n c e
a n d r o i d : d i a l o g T i t l e=" @string / objects_url "
a n d r o i d : d i a l o g M e s s a g e=" @string /
write_objects_url "
a n d r o i d : k e y=" URL_OBJECTS "
a n d r o i d : t i t l e=" @string / objects "
android:summary=" @string / objects_url "
a n d r o i d : d e f a u l t V a l u e=" @string / URL_OBJECTS "/>
</ P r e f e r e n c e C a t e g o r y>
</ P r e f e r e n c e S c r e e n>
Fichero de recursos C.7: preferences.xml
286
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.2. Ficheros de recursos de la aplicación Android
C.2.4.
Internacionalización
values/strings.xml
<?xml version="1.0" e n c o d i n g="utf -8" ?>
<r e s o u r c e s>
< !−− t i t l e f o r t h e d i a l o g showing t h e e r r o r o f camera hardware −−>
<s t r i n g name=" camera_error_title ">E r r o r en l a cámara</ s t r i n g>
< !−− message f o r t h e d i a l o g showing t h e e r r o r o f camera hardware −−>
<s t r i n g name=" cannot_connect_camera ">No s e puede c o n e c t a r l a cámara</
s t r i n g>
< !−− D e t a i l s d i a l o g "OK" b u t t o n . D i s m i s s e s d i a l o g . −−>
<s t r i n g name=" details_ok ">OK</ s t r i n g>
<s t r i n g name=" app_name ">TFG Ivan Lorenzo Rubio</ s t r i n g>
<s t r i n g name=" configuration ">C o n f i g u r a c i ó n</ s t r i n g>
<s t r i n g name="exit"> S a l i r</ s t r i n g>
<s t r i n g name=" write_patterns_url ">E s c r i b a l a d i r e c c i ó n URL de l o s
p a t r o n e s</ s t r i n g>
<s t r i n g name=" write_objects_url ">E s c r i b a l a d i r e c c i ó n URL de l o s
o b j e t o s</ s t r i n g>
<s t r i n g name=" save_preferences ">Guardar p r e f e r e n c i a s</ s t r i n g>
<s t r i n g name=" loading ">Cargando</ s t r i n g>
<s t r i n g name=" internet_connection ">Por f a v o r , r e v i s a tu c o n e x i ó n de
i n t e r n e t e i n t é n t a l o de nuevo</ s t r i n g>
<s t r i n g name=" connection_error ">E r r o r de c o n e x i ó n</ s t r i n g>
<s t r i n g name="yes">S i</ s t r i n g>
<s t r i n g name="no">No</ s t r i n g>
<s t r i n g name=" sure_exit ">¿Está s e g u r o que d e s e a s a l i r de l a
a p l i c a c i ó n ?</ s t r i n g>
</ r e s o u r c e s>
Fichero de recursos C.8: values/strings.xml
values-en/strings.xml
<?xml version="1.0" e n c o d i n g="utf -8" ?>
<r e s o u r c e s>
< !−− t i t l e f o r t h e d i a l o g showing t h e e r r o r o f camera hardware −−>
<s t r i n g name=" camera_error_title ">Camera e r r o r</ s t r i n g>
< !−− message f o r t h e d i a l o g showing t h e e r r o r o f camera hardware −−>
<s t r i n g name=" cannot_connect_camera ">Cannot c o n n e c t t o camera .</ s t r i n g>
< !−− D e t a i l s d i a l o g "OK" b u t t o n . D i s m i s s e s d i a l o g . −−>
<s t r i n g name=" details_ok ">OK</ s t r i n g>
<s t r i n g name=" app_name ">TFG Ivan Lorenzo Rubio</ s t r i n g>
Plataforma educativa basada en realidad aumentada y dispositivos móviles
287
C. Código Fuente
<s t r i n g name=" configuration ">C o n f i g u r a t i o n</ s t r i n g>
<s t r i n g name="exit">E x i t</ s t r i n g>
<s t r i n g name=" write_patterns_url ">Enter t h e URL o f t h e p a t t e r n s</
s t r i n g>
<s t r i n g name=" write_objects_url ">Enter t h e URL o f t h e o b j e c t s</
s t r i n g>
<s t r i n g name=" save_preferences ">Save p r e f e r e n c e s</ s t r i n g>
<s t r i n g name=" loading ">Loading . . . </ s t r i n g>
<s t r i n g name=" internet_connection ">P l e a s e , check your i n t e r n e t
c o n n e c t i o n and t r y a g a i n</ s t r i n g>
<s t r i n g name=" connection_error ">Connection e r r o r</ s t r i n g>
<s t r i n g name="yes">Yes</ s t r i n g>
<s t r i n g name="no">No</ s t r i n g>
<s t r i n g name=" sure_exit ">Are you s u r e you want t o e x i t ?</ s t r i n g>
< !−−
<s t r i n g name=" URL_PATTERNS "> h t t p : // t f g . i v a n l o r e n z o . e s / d a t a / p a t t e r n s
. xml</ s t r i n g>
<s t r i n g name=" URL_OBJECTS "> h t t p : // t f g . i v a n l o r e n z o . e s / d a t a / o b j e c t s .
xml</ s t r i n g>
<s t r i n g name=" NO_OBJECT_3D "> h t t p : // t f g . i v a n l o r e n z o . e s / d a t a / o b j e c t s /
D i b u j o I v a n . 3DS</ s t r i n g>
−−>
</ r e s o u r c e s>
Fichero de recursos C.9: values-en/strings.xml
values-es/strings.xml
<?xml version="1.0" e n c o d i n g="utf -8" ?>
<r e s o u r c e s>
< !−− t i t l e f o r t h e d i a l o g showing t h e e r r o r o f camera hardware −−>
<s t r i n g name=" camera_error_title ">E r r o r de cámara</ s t r i n g>
< !−− message f o r t h e d i a l o g showing t h e e r r o r o f camera hardware −−>
<s t r i n g name=" cannot_connect_camera ">No s e puede c o n e c t a r l a cámara</
s t r i n g>
< !−− D e t a i l s d i a l o g "OK" b u t t o n . D i s m i s s e s d i a l o g . −−>
<s t r i n g name=" details_ok ">OK</ s t r i n g>
<s t r i n g name=" app_name ">TFG Ivan Lorenzo Rubio</ s t r i n g>
<s t r i n g name=" configuration ">C o n f i g u r a c i ó n</ s t r i n g>
<s t r i n g name="exit"> S a l i r</ s t r i n g>
<s t r i n g name=" patterns_and_locations ">P a t r o n e s y L o c a l i z a c i o n e s</
s t r i n g><s t r i n g name=" patterns_url ">URL de l o s p a t r o n e s y
l o c a l i z a c i o n e s</ s t r i n g><s t r i n g name=" write_patterns_url ">E s c r i b a
l a d i r e c c i ó n URL de l o s p a t r o n e s y l o c a l i z a c i o n e s</ s t r i n g><
s t r i n g name=" objects ">O b j e t o s</ s t r i n g>
288
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.2. Ficheros de recursos de la aplicación Android
<s t r i n g name=" objects_url " >URL de l o s o b j e t o s</ s t r i n g><s t r i n g name
=" write_objects_url ">E s c r i b a l a d i r e c c i ó n URL de l o s o b j e t o s</
s t r i n g>
<s t r i n g name=" loading ">Cargando . . . </ s t r i n g>
<s t r i n g name=" internet_connection ">Por f a v o r , r e v i s a tu c o n e x i ó n de
i n t e r n e t e i n t é n t a l o de nuevo</ s t r i n g>
<s t r i n g name=" connection_error ">E r r o r de c o n e x i ó n</ s t r i n g>
<s t r i n g name="yes">S i</ s t r i n g>
<s t r i n g name="no">No</ s t r i n g>
<s t r i n g name=" sure_exit ">¿Está s e g u r o que d e s e a s a l i r de l a
a p l i c a c i ó n ?</ s t r i n g>
</ r e s o u r c e s>
Fichero de recursos C.10: values-es/strings.xml
C.2.5.
AndroidManifest
AndroidManifest.xml
<?xml version="1.0" e n c o d i n g="utf -8" ?>
<m a n i f e s t x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
package="com. ivanlorenzo .gui" a n d r o i d : v e r s i o n N a m e="3.0.0 -1"
a n d r o i d : v e r s i o n C o d e=" 30001 ">
<u s e s −p e r m i s s i o n android:name=" android . permission . ACCESS_FINE_LOCATION "
></ u s e s −p e r m i s s i o n>
<u s e s −p e r m i s s i o n android:name=" android . permission .
ACCESS_COARSE_LOCATION "></ u s e s −p e r m i s s i o n>
<u s e s −p e r m i s s i o n android:name=" android . permission . ACCESS_NETWORK_STATE "
></ u s e s −p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/
android " android:name=" android . permission . INSTALL_PACKAGES "></ u s e s −
p e r m i s s i o n>
<u s e s −p e r m i s s i o n android:name=" android . permission . DELETE_PACKAGES "
x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "></ u s e s −
p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . RESTART_PACKAGES "></ u s e s −p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . CAMERA "></ u s e s −p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . ACCESS_SURFACE_FLINGER "></ u s e s −
p e r m i s s i o n>
Plataforma educativa basada en realidad aumentada y dispositivos móviles
289
C. Código Fuente
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . ACCESS_LOCATION_EXTRA_COMMANDS "></ u s e s
−p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . BRICK "></ u s e s −p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . FLASHLIGHT "></ u s e s −p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . INTERNAL_SYSTEM_WINDOW "></ u s e s −
p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . MASTER_CLEAR "></ u s e s −p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . READ_FRAME_BUFFER "></ u s e s −p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . INTERNET "></ u s e s −p e r m i s s i o n>
<u s e s −p e r m i s s i o n x m l n s : a n d r o i d=" http: // schemas . android .com/apk/res/ android "
android:name=" android . permission . ACCESS_LOCATION_EXTRA_COMMANDS "></ u s e s
−p e r m i s s i o n>
<u s e s −sdk a n d r o i d : m i n S d k V e r s i o n="8"></ u s e s −sdk>
<a p p l i c a t i o n a n d r o i d : i c o n=" @drawable /icon" a n d r o i d : l a b e l=" @string /
app_name " a n d r o i d : d e b u g g a b l e="true">
< a c t i v i t y android:name=". TFGARActivity " a n d r o i d : s c r e e n O r i e n t a t i o n="
landscape " a n d r o i d : t h e m e=" @android:style / Theme . NoTitleBar ">
<i n t e n t − f i l t e r>
<a c t i o n android:name=" android . intent . action .MAIN" />
<c a t e g o r y android:name=" android . intent . category . LAUNCHER " /
>
</ i n t e n t − f i l t e r>
</ a c t i v i t y>
< a c t i v i t y android:name=". preferences . TFGPreferencesActivity "
a n d r o i d : s c r e e n O r i e n t a t i o n=" landscape " a n d r o i d : t h e m e="
@android:style / Theme . NoTitleBar ">
</ a c t i v i t y>
</ a p p l i c a t i o n>
</ m a n i f e s t>
Fichero de recursos C.11: AndroidManifest.xml
290
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.3. JNI
C.3.
JNI
yuv420sp2rgb/yuv420sp2rgb.c
#include < j n i . h>
#include <a n d r o i d / l o g . h>
#define
#define
VA
#define
VA
LOG TAG
LOGI ( . . . )
ARGS )
LOGE ( . . . )
ARGS )
" libyuv420sp2rgb "
a n d r o i d l o g p r i n t (ANDROID LOG INFO,LOG TAG,
a n d r o i d l o g p r i n t (ANDROID LOG ERROR,LOG TAG,
/∗
∗ d e r i v e d from d e v e l o p m e n t / t o o l s / y u v 4 2 0 s p 2 r g b / y u v 4 2 0 s p 2 r g b . c
∗/
#include <u n i s t d . h>
#i f n d e f
#define
b;
#define
b;
#endif
max
max( a , b ) ( { t y p e o f ( a )
})
min ( a , b ) ( { t y p e o f ( a )
})
a = (a) ; typeof (b)
b = (b) ;
a >
b ?
a :
a = (a) ; typeof (b)
b = (b) ;
a <
b ?
a :
#define CONVERT TYPE PPM 0
#define CONVERT TYPE RGB 1
#define CONVERT TYPE ARGB 2
/∗
YUV 4 : 2 : 0 image w i t h a p l a n e o f 8 b i t Y s a m p l e s f o l l o w e d by an
interleaved
U/V p l a n e c o n t a i n i n g 8 b i t 2 x2 s u b s a m p l e d chroma s a m p l e s .
e x c e p t t h e i n t e r l e a v e o r d e r o f U and V i s r e v e r s e d .
H V
Y Sample P e r i o d
1 1
U ( Cb ) Sample P e r i o d 2 2
V ( Cr ) Sample P e r i o d 2 2
∗/
typedef struct r g b c o n t e x t {
unsigned char ∗ b u f f e r ;
int width ;
int h e i g h t ;
int r o t a t e ;
int i ;
int j ;
int s i z e ; /∗ f o r d e b u g g i n g ∗/
} rgb context ;
typedef void ( ∗ r g b c b ) (
unsigned char r ,
unsigned char g ,
Plataforma educativa basada en realidad aumentada y dispositivos móviles
291
C. Código Fuente
unsigned char b ,
rgb context ∗ ctx ) ;
const int b y t e s p e r p i x e l = 2 ;
s t a t i c void c o l o r c o n v e r t c o m m o n (
unsigned char ∗pY , unsigned char ∗pUV,
int width , int h e i g h t ,
unsigned char ∗ b u f f e r ,
int s i z e , /∗ b u f f e r s i z e i n b y t e s ∗/
int gray ,
int r o t a t e ,
r g b c b cb )
{
int i , j ;
int nR , nG, nB ;
int nY , nU , nV ;
rgb context ctx ;
ctx . b u f f e r = b u f f e r ;
c t x . s i z e = s i z e ; /∗ debug ∗/
c t x . width = width ;
ctx . height = height ;
ctx . rotate = rotate ;
i f ( gray ) {
f o r ( i = 0 ; i < h e i g h t ; i ++) {
f o r ( j = 0 ; j < width ; j ++) {
nB = ∗ (pY + i ∗ width + j ) ;
ctx . i = i ;
ctx . j = j ;
cb (nB , nB , nB , &c t x ) ;
}
}
} else {
// YUV 4 : 2 : 0
f o r ( i = 0 ; i < h e i g h t ; i ++) {
f o r ( j = 0 ; j < width ; j ++) {
nY = ∗ (pY + i ∗ width + j ) ;
nV = ∗ (pUV + ( i / 2 ) ∗ width + b y t e s p e r p i x e l ∗ ( j / 2 ) ) ;
nU = ∗ (pUV + ( i / 2 ) ∗ width + b y t e s p e r p i x e l ∗ ( j / 2 ) + 1 ) ;
//
nY
nU
nV
Yuv Convert
−= 1 6 ;
−= 1 2 8 ;
−= 1 2 8 ;
i f (nY < 0 )
nY = 0 ;
// nR = ( i n t ) ( 1 . 1 6 4 ∗ nY + 2 . 0 1 8 ∗ nU) ;
// nG = ( i n t ) ( 1 . 1 6 4 ∗ nY − 0 . 8 1 3 ∗ nV − 0 . 3 9 1 ∗ nU) ;
// nB = ( i n t ) ( 1 . 1 6 4 ∗ nY + 1 . 5 9 6 ∗ nV) ;
nB = ( int ) ( 1 1 9 2 ∗ nY + 2066 ∗ nU) ;
nG = ( int ) ( 1 1 9 2 ∗ nY − 833 ∗ nV − 400 ∗ nU) ;
292
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.3. JNI
nR = ( int ) ( 1 1 9 2 ∗ nY + 1634 ∗ nV) ;
nR = min ( 2 6 2 1 4 3 , max ( 0 , nR) ) ;
nG = min ( 2 6 2 1 4 3 , max ( 0 , nG) ) ;
nB = min ( 2 6 2 1 4 3 , max ( 0 , nB) ) ;
nR >>= 1 0 ; nR &= 0 x f f ;
nG >>= 1 0 ; nG &= 0 x f f ;
nB >>= 1 0 ; nB &= 0 x f f ;
ctx . i = i ;
ctx . j = j ;
cb (nR , nG, nB , &c t x ) ;
}
}
}
}
s t a t i c void common rgb cb (
unsigned char r ,
unsigned char g ,
unsigned char b ,
r g b c o n t e x t ∗ ctx ,
int a l p h a )
{
unsigned char ∗ out = ctx−>b u f f e r ;
int o f f s e t = 0 ;
int bpp ;
int i = 0 ;
switch ( ctx−>r o t a t e ) {
case 0 : /∗ no r o t a t i o n ∗/
o f f s e t = ctx−>i ∗ ctx−>width + ctx−>j ;
break ;
case 1 : /∗ 90 d e g r e e s ∗/
o f f s e t = ctx−>h e i g h t ∗ ( ctx−>j + 1 ) − ctx−>i ;
break ;
case 2 : /∗ 180 d e g r e e s ∗/
o f f s e t = ( ctx−>h e i g h t − 1 − ctx−>i ) ∗ ctx−>width + ctx−>j ;
break ;
case 3 : /∗ 270 d e g r e e s ∗/
o f f s e t = ( ctx−>width − 1 − ctx−>j ) ∗ ctx−>h e i g h t + ctx−>i ;
break ;
default :
//FAILIF ( 1 , ” Unexpected r o a t i o n v a l u e %d ! \ n ” , c t x −>r o t a t e ) ;
break ;
}
bpp = 3 + ! ! a l p h a ;
o f f s e t ∗= bpp ;
/∗FAILIF ( o f f s e t < 0 , ” p o i n t ( %d , %d ) g e n e r a t e s a n e g a t i v e o f f s e t . \ n ” ,
c t x −>i , c t x −>j ) ;
FAILIF ( o f f s e t + bpp > c t x −>s i z e , ” p o i n t ( %d , %d ) a t o f f s e t %d e x c e e d s
t h e s i z e %d o f t h e b u f f e r . \ n ” ,
c t x −>i , c t x −>j ,
offset ,
c t x −>s i z e ) ; ∗/
Plataforma educativa basada en realidad aumentada y dispositivos móviles
293
C. Código Fuente
out += o f f s e t ;
/∗ i f ( a l p h a ) o u t [ i ++] = 0 x f f ;
o u t [ i ++] = r ;
o u t [ i ++] = g ;
o u t [ i ] = b ; ∗/
out [ i ++] = b ;
out [ i ++] = g ;
out [ i ++] = r ;
i f ( a l p h a ) out [ i ] = 0 x f f ;
}
s t a t i c void r g b 2 4 c b (
unsigned char r ,
unsigned char g ,
unsigned char b ,
rgb context ∗ ctx )
{
return common rgb cb ( r , g , b , ctx , 0 ) ;
}
s t a t i c void a r g b c b (
unsigned char r ,
unsigned char g ,
unsigned char b ,
rgb context ∗ ctx )
{
return common rgb cb ( r , g , b , ctx , 1 ) ;
}
JNIEXPORT void JNICALL
Java com ivanlorenzo gui ARToolkitDrawer decodeYUV420SP ( JNIEnv ∗ env ,
j o b j e c t obj , j i n t A r r a y rgb , j b y t e A r r a y yuv420sp , j i n t width , j i n t h e i g h t
, j i n t type )
{
void ∗ in , ∗ out ;
int p s z = g e t p a g e s i z e ( ) ;
int h e a d e r s i z e ;
size t outsize ;
int bpp = 3 ;
switch ( type ) {
case CONVERT TYPE RGB:
header size = 0;
break ;
case CONVERT TYPE ARGB:
header size = 0;
bpp = 4 ;
break ;
}
o u t s i z e = h e a d e r s i z e + width ∗ h e i g h t ∗ bpp ;
o u t s i z e = ( o u t s i z e + psz − 1) & ˜( psz − 1) ;
j b o o l e a n isCopyIn , isCopyOut ;
294
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
i n = ( ∗ env )−>GetByteArrayElements ( env , yuv420sp , &i s C o p y I n ) ;
out = ( ∗ env )−>GetIntArrayElements ( env , rgb , &isCopyOut ) ;
c o l o r c o n v e r t c o m m o n ( in , i n + width ∗ h e i g h t ,
width , h e i g h t ,
out + h e a d e r s i z e , o u t s i z e − h e a d e r s i z e ,
0, 0,
type == CONVERT TYPE ARGB ? a r g b c b : r g b 2 4 c b ) ;
// i f ( i s C o p y I n == JNI TRUE)
( ∗ env )−>R e l e a s e B y t e A r r ay E l e m e n t s ( env , yuv420sp , in , 0 ) ;
// i f ( isCopyOut == JNI TRUE)
( ∗ env )−>R e l e a s e I n t A r r a y E l e m e n t s ( env , rgb , out , 0 ) ;
}
JNI C.12: yuv420sp2rgb/yuv420sp2rgb.c
C.4.
Clases Java
C.4.1.
Paquete com.ivanlorenzo.data
XMLCompiler.java
package com . i v a n l o r e n z o . data ;
import j a v a . i o . IOException ;
import j a v a . i o . InputStream ;
import j a v a . n e t .URL;
import j a v a x . xml . p a r s e r s . DocumentBuilder ;
import j a v a x . xml . p a r s e r s . DocumentBuilderFactory ;
import j a v a x . xml . p a r s e r s . P a r s e r C o n f i g u r a t i o n E x c e p t i o n ;
/∗
import
import
import
import
import
import
import
∗/
j a v a x . xml . XMLConstants ;
j a v a x . xml . t r a n s f o r m . Source ;
j a v a x . xml . t r a n s f o r m . dom . DOMSource ;
j a v a x . xml . t r a n s f o r m . stream . StreamSource ;
j a v a x . xml . v a l i d a t i o n . Schema ;
j a v a x . xml . v a l i d a t i o n . SchemaFactory ;
j a v a x . xml . v a l i d a t i o n . V a l i d a t o r ;
import com . i v a n l o r e n z o . data . e x c e p t i o n s . LoadXMLException ;
import o r g . w3c . dom . Document ;
import o r g . xml . sax . SAXException ;
/∗ ∗
∗ C l a s e g e n é r i c a a b s t r a c t a enc argada de l a c o m p i l a c i ó n de f i c h e r o s XML
∗ @author Iván Lorenzo Rubio
Plataforma educativa basada en realidad aumentada y dispositivos móviles
295
C. Código Fuente
∗
∗/
public abstract c l a s s XMLCompiler
{
/∗ ∗
∗ Url d e l f i c h e r o XML a c a r g a r
∗/
protected S t r i n g xml ;
/∗ ∗
∗ URl d e l f i c h e r o XSD a c a r g a r
∗/
protected S t r i n g xsd ;
/∗ ∗
∗ Documento DOM que r e p r e s e n t a e l j u e g o
∗/
protected Document document ;
/∗ ∗
∗ D e v u e l v e un f l u j o de b y t e s d e l r e c u r s o que s e e n c u e n t r a en l a
u r l pasada
∗ @param u r l La d i r e c c i ó n donde s e c u e n t r a e l r e c u r s o a a b r i r
∗ @return F l u j o de b y t e s d e l r e c u r s o
∗ @throws IOException En c a s o de que no s e pueda a c c e d e r a l a URL
l a n z a rı́ a una IOException
∗/
private InputStream g e t I n p u t S t r e a m (URL u r l ) throws IOException
{
return u r l . openConnection ( ) . g e t I n p u t S t r e a m ( ) ;
}
/∗ ∗
∗ Carga en e l documento DOM e l f i c h e r o XML
∗ @param v a l i d a t e S i e l f i c h e r o XML s e v a l i d a r á con un DTD
∗ @throws LoadXMLException S i hay e r r o r e s en l a c a r g a
∗ @throws IOException Se puede p r o d u c i r una e x c e p c i ó n s i no
e n c u e n t r a e l r e c u r s o en l a URL
∗/
protected void l o a d F i l e ( boolean v a l i d a t e ) throws LoadXMLException ,
IOException
{
DocumentBuilderFactory p a r s e r F a c t o r y =
DocumentBuilderFactory . n e w I n s t a n c e ( ) ;
p a r s e r F a c t o r y . setNamespaceAware ( t r u e ) ;
//
try
{
296
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
DocumentBuilder p a r s e r = p a r s e r F a c t o r y .
newDocumentBuilder ( ) ;
document = p a r s e r . p a r s e ( g e t I n p u t S t r e a m (new URL( xml
)) );
//
//
SchemaFactory f a c t o r y = SchemaFactory
. n e w I n s t a n c e ( XMLConstants . XML DTD NS URI) ;
//
Source s c h e m a F i l e = new StreamSource (
g e t I n p u t S t r e a m ( new URL( x s d ) ) ) ;
//
Schema schema = f a c t o r y . newSchema ( s c h e m a F i l e ) ;
//
//
V a l i d a t o r v a l i d a t o r = schema . n e w V a l i d a t o r ( ) ;
//
v a l i d a t o r . v a l i d a t e ( new DOMSource( document ) ) ;
}
catch ( P a r s e r C o n f i g u r a t i o n E x c e p t i o n e ) {}
catch ( SAXException e ) {}
}
}
Paquete data C.13: XMLCompiler.java
AugmentedRealityXMLCompiler.java
package com . i v a n l o r e n z o . data ;
import j a v a . i o . IOException ;
import j a v a x . xml . xpath . XPathExpressionException ;
import a n d r o i d . c o n t e n t . r e s . R e s o u r c e s ;
import com . i v a n l o r e n z o . data . e x c e p t i o n s . LoadXMLException ;
import com . i v a n l o r e n z o . data . e x c e p t i o n s . NoSuchExtensionObject3DException ;
import o r g . w3c . dom . Element ;
import o r g . w3c . dom . Node ;
import o r g . w3c . dom . NodeList ;
/∗ ∗
∗ C l a s e h i j a de XMLCompiler encarg ada de c o m p i l a r e l f i c h e r o XML que
c o n t i e n e l a i n f o r m a c i ó n s o b r e
∗ l o s p a t r o n e s ( markers ) y l a s p o s i c i o n e s GPS
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s AugmentedRealityXMLCompiler extends XMLCompiler
{
Plataforma educativa basada en realidad aumentada y dispositivos móviles
297
C. Código Fuente
/∗ ∗
∗ Busca t o d o s l o s p a t r o n e s y l o c a l i z a c i o n e s d e l f i c h e r o XML y l o s
guarda en l a b a s e de c o n o c i m i e n t o
∗ @param r e s Recursos de l a a p l i c a c i ó n
∗ @param urlXMLObjects Ruta d e l f i c h e r o XML de o b j e t o s
∗ @param urlXSDObjects Ruta d e l f i c h e r o XSD de o b j e t o s
∗ @throws LoadXMLException S i hay e r r o r e s en l a c a r g a
∗ @throws X P a t h E x p r e s s i o n E x c e p t i o n S i s e produce un e r r o r en una
e x p r e s i ó n XPath
∗ @throws NoSuchExtensionObject3DException S i e l o b j e t o no t i e n e
una e x t e n s i ó n 3D v á l i d a
∗ @throws IOException En c a s o de que no s e pueda a c c e d e r a l a URL
l a n z a rı́ a una IOException
∗/
private void scanDocument ( R e s o u r c e s r e s , S t r i n g urlXMLObjects ,
S t r i n g urlXSDObjects )
throws LoadXMLException , XPathExpressionException ,
NoSuchExtensionObject3DException , IOException
{
int count = 0 ;
//Nos p o s i c i o n a m o s en e l e l e m e n t o p r i n c i p a l <p a t t e r n s >
Element r o o t = document . getDocumentElement ( ) ;
NodeList i t e m s = r o o t . getElementsByTagName ( " pattern " ) ;
f o r ( int i =0; i <i t e m s . g e tL e ng t h ( ) ; i ++)
{
// Obtenemos e l p a t r ó n
Node item = i t e m s . item ( i ) ;
int i d P a t t e r n = I n t e g e r . p a r s e I n t (
item . g e t A t t r i b u t e s ( ) . getNamedItem ( "id" ) .
getNodeValue ( ) ) ;
S t r i n g namePattern = item . g e t A t t r i b u t e s ( ) . getNamedItem ( "name" ) .
getNodeValue ( ) ;
int i d O b j e c t = 0 ;
// Obtenemos l a l i s t a de o b j e t o s d e l p a t r ó n
NodeList o b j e c t s = item . g e t C h i l d N o d e s ( ) ;
f o r ( int j =0; j <o b j e c t s . g et L e ng t h ( ) ; j ++)
{
Node o b j e c t = o b j e c t s . item ( j ) ;
S t r i n g l a b e l = o b j e c t . getNodeName ( ) ;
i f ( l a b e l . e q u a l s ( " object " ) )
{
idObject = Integer . parseInt ( object .
g e t A t t r i b u t e s ( ) . getNamedItem ( "id" ) .
getNodeValue ( ) ) ;
}
}
298
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
P a t t e r n patData = new P a t t e r n ( i d P a t t e r n ,
namePattern , i d O b j e c t ) ;
KnowledgeBase . g e t I n s t a n c e ( ) . s a v e P a t t e r n ( patData ) ;
// Llamada a o t r o f i c h e r o XML
new ObjectsXMLCompiler ( ) . l o a d ( r e s , urlXMLObjects ,
urlXSDObjects , i d O b j e c t , count ) ;
count++;
}
/∗ LOCATION ∗/
i t e m s = r o o t . getElementsByTagName ( " location " ) ;
f o r ( int i =0; i <i t e m s . g e tL e ng t h ( ) ; i ++)
{
// Obtenemos l a l o c a l i z a c i ó n
Node item = i t e m s . item ( i ) ;
int i d L o c a t i o n = I n t e g e r . p a r s e I n t (
item . g e t A t t r i b u t e s ( ) . getNamedItem ( "id" ) .
getNodeValue ( ) ) ;
S t r i n g nameLocation = item . g e t A t t r i b u t e s ( ) . getNamedItem ( "name" )
. getNodeValue ( ) ;
double l a t i t u d e= Double . p a r s e D o u b l e (
item . g e t A t t r i b u t e s ( ) . getNamedItem ( "lat" ) .
getNodeValue ( ) ) ;
double l o n g i t u d e= Double . p a r s e D o u b l e (
item . g e t A t t r i b u t e s ( ) . getNamedItem ( "long" ) .
getNodeValue ( ) ) ;
int i d O b j e c t = 0 ;
// Obtenemos l a l i s t a de o b j e t o s de l a l o c a l i z a c i ó n
NodeList o b j e c t s = item . g e t C h i l d N o d e s ( ) ;
f o r ( int j =0; j <o b j e c t s . g et L e ng t h ( ) ; j ++)
{
Node o b j e c t = o b j e c t s . item ( j ) ;
S t r i n g l a b e l = o b j e c t . getNodeName ( ) ;
i f ( l a b e l . e q u a l s ( " object " ) )
{
idObject = Integer . parseInt ( object .
g e t A t t r i b u t e s ( ) . getNamedItem ( "id" ) .
getNodeValue ( ) ) ;
}
}
GeoLocation l o c a t i o n = new GeoLocation ( i d L o c a t i o n , nameLocation
, latitude , longitude , idObject ) ;
KnowledgeBase . g e t I n s t a n c e ( ) . s a v e L o c a t i o n ( l o c a t i o n ) ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
299
C. Código Fuente
// Llamada a o t r o f i c h e r o XML
new ObjectsXMLCompiler ( ) . l o a d ( r e s , urlXMLObjects ,
urlXSDObjects , i d O b j e c t , count ) ;
count++;
}
}
/∗ ∗
∗ Método que c a r g a l o s p a t r o n e s
∗ @param r e s Recursos de l a a p l i c a c i ó n
∗ @param urlXMLPatterns Ruta d e l f i c h e r o XML de p a t r o n e s
∗ @param urlXSDPatterns Ruta d e l f i c h e r o XSD de p a t r o n e s
∗ @param urlXMLObjects Ruta d e l f i c h e r o XML de o b j e t o s
∗ @param urlXSDObjects Ruta d e l f i c h e r o XSD de o b j e t o s
∗ @throws LoadXMLException S i hay e r r o r e s en l a c a r g a
∗ @throws X P a t h E x p r e s s i o n E x c e p t i o n S i s e produce un e r r o r en una
e x p r e s i ó n XPath
∗ @throws NoSuchExtensionObject3DException S i e l o b j e t o no t i e n e
una e x t e n s i ó n 3D v á l i d a
∗ @throws IOException En c a s o de que no s e pueda a c c e d e r a l a URL
l a n z a rı́ a una IOException
∗/
public void l o a d ( R e s o u r c e s r e s , S t r i n g urlXMLPatterns , S t r i n g
urlXSDPatterns ,
S t r i n g urlXMLObjects , S t r i n g urlXSDObjects )
throws LoadXMLException , XPathExpressionException ,
NoSuchExtensionObject3DException , IOException
{
t h i s . xml = urlXMLPatterns ;
t h i s . xsd = urlXSDPatterns ;
l o a d F i l e ( true ) ;
scanDocument ( r e s , urlXMLObjects , urlXMLObjects ) ;
}
}
Paquete data C.14: AugmentedRealityXMLCompiler.java
ObjectsXMLCompiler.java
package com . i v a n l o r e n z o . data ;
import j a v a . i o . IOException ;
import
import
import
import
import
300
j a v a x . xml . xpath . XPath ;
j a v a x . xml . xpath . XPathConstants ;
j a v a x . xml . xpath . XPathExpression ;
j a v a x . xml . xpath . XPathExpressionException ;
j a v a x . xml . xpath . XPathFactory ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
import a n d r o i d . c o n t e n t . r e s . R e s o u r c e s ;
import
import
import
import
com . i v a n l o r e n z o . data . e x c e p t i o n s . LoadXMLException ;
com . i v a n l o r e n z o . data . e x c e p t i o n s . NoSuchExtensionObject3DException ;
com . i v a n l o r e n z o . data . o b j e c t s . Object3D ;
com . i v a n l o r e n z o . data . o b j e c t s . Object3DCreator ;
import o r g . w3c . dom . Node ;
import o r g . w3c . dom . NodeList ;
/∗ ∗
∗ C l a s e h i j a de XMLCompiler encarg ada de c o m p i l a r e l f i c h e r o XML que
c o n t i e n e l a i n f o r m a c i ó n s o b r e l o s o b j e t o s
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s ObjectsXMLCompiler extends XMLCompiler
{
/∗ ∗
∗ Busca t o d o s un o b j e t o de te rm i na do d e l f i c h e r o XML y l o guarda en
l a b a s e de c o n o c i m i e n t o .
∗ @param r e s Recursos de l a a p l i c a c i ó n
∗ @param i d I d e n t i f i c a d o r d e l o b j e t o a b u s c a r
∗ @param o r d e r Orden en que s e c a r g a r á e l o b j e t o
∗ @throws X P a t h E x p r e s s i o n E x c e p t i o n S i s e produce un e r r o r en una
e x p r e s i ó n XPath
∗ @throws NoSuchExtensionObject3DException S i e l o b j e t o no t i e n e
una e x t e n s i ó n 3D v á l i d a
∗/
private void s e a r c h O b j e c t ( R e s o u r c e s r e s , int id , int o r d e r )
throws XPathExpressionException ,
NoSuchExtensionObject3DException
{
XPathFactory f a c t o r y = XPathFactory . n e w I n s t a n c e ( ) ;
XPath xpath = f a c t o r y . newXPath ( ) ;
S t r i n g ex = "// object [@id=’" + i d + " ’]" ;
XPathExpression expr = xpath . c o m p i l e ( ex ) ;
Object r e s u l t = expr . e v a l u a t e ( document , XPathConstants .NODESET)
;
NodeList nodes = ( NodeList ) r e s u l t ;
f o r ( int i = 0 ; i < nodes . g e t Le n gt h ( ) ; i ++)
{
int i d O b j e c t = I n t e g e r . p a r s e I n t ( nodes . item ( i ) .
g e t A t t r i b u t e s ( ) . getNamedItem ( "id" ) . getNodeValue ( ) ) ;
S t r i n g nameObject = nodes . item ( i ) . g e t A t t r i b u t e s ( ) .
getNamedItem ( "name" ) . getNodeValue ( ) ;
Node o b j e c t = nodes . item ( i ) ;
NodeList c h i l d r e n = o b j e c t . g e t C h i l d N o d e s ( ) ;
S t r i n g d e s c r i p t i o n = "" ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
301
C. Código Fuente
S t r i n g sound = "" ;
S t r i n g f i l e 3 d s = "" ;
S t r i n g e x t e n s i o n F i l e 3 d s = "" ;
S t r i n g t e x t u r e = "" ;
f o r ( int j = 0 ; j <c h i l d r e n . g et L e ng t h ( ) ; j ++)
{
i f ( c h i l d r e n . item ( j ) . getNodeType ( ) == Node .
ELEMENT NODE)
{
S t r i n g nombre = c h i l d r e n . item ( j ) .
getNodeName ( ) ;
i f ( c h i l d r e n . item ( j ) . g e t F i r s t C h i l d ( ) != null )
{
i f ( nombre . e q u a l s ( " description " ) )
{
d e s c r i p t i o n = c h i l d r e n . item
( j ) . getFirstChild () .
getNodeValue ( ) ;
}
e l s e i f ( nombre . e q u a l s ( " sound " ) )
{
sound = c h i l d r e n . item ( j ) .
getFirstChild () .
getNodeValue ( ) ;
}
e l s e i f ( nombre . e q u a l s ( " file3ds " ) )
{
f i l e 3 d s = c h i l d r e n . item ( j ) .
getFirstChild () .
getNodeValue ( ) ;
int d o t p o s i t i o n= f i l e 3 d s .
l a s t I n d e x O f ( "." ) ;
extensionFile3ds = file3ds .
substring ( dotposition +
1 , f i l e 3 d s . length () ) ;
}
e l s e i f ( nombre . e q u a l s ( " texture " ) )
{
t e x t u r e = c h i l d r e n . item ( j ) .
getFirstChild () .
getNodeValue ( ) ;
}
}
}
}
Object3D objData = Object3DCreator . c r e a t e O b j e c t ( r e s ,
i d O b j e c t , nameObject , d e s c r i p t i o n ,
f i l e 3 d s , e x t e n s i o n F i l e 3 d s , t e x t u r e , sound ,
order ) ;
// Object3D o b j D a t a = new Object3D ( i d O b j e c t , nameObject ,
d e s c r i p t i o n , new File3D ( nameFile3ds , e x t e n s i o n F i l e 3 d s ) ,
sound ) ;
KnowledgeBase . g e t I n s t a n c e ( ) . s a v e O b j e c t ( objData ) ;
}
}
302
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
/∗ ∗
∗ Método que c a r g a l a i n f o r m a c i ó n de un o b j e t o
∗ @param r e s Recursos de l a a p l i c a c i ó n
∗ @param urlXMLObjects Ruta d e l f i c h e r o XML de o b j e t o s
∗ @param urlXSDObjects Ruta d e l f i c h e r o XSD de o b j e t o s
∗ @param i d O b j e c t I d e n t i f i c a d o r d e l o b j e t o a b u s c a r
∗ @param o r d e r Orden en que s e c a r g a r á e l o b j e t o
∗ @throws LoadXMLException S i hay e r r o r e s en l a c a r g a
∗ @throws X P a t h E x p r e s s i o n E x c e p t i o n S i s e produce un e r r o r en una
e x p r e s i ó n XPath
∗ @throws NoSuchExtensionObject3DException S i e l o b j e t o no t i e n e
una e x t e n s i ó n 3D v á l i d a
∗ @throws IOException En c a s o de que no s e pueda a c c e d e r a l a URL
l a n z a rı́ a una IOException
∗/
public void l o a d ( R e s o u r c e s r e s , S t r i n g urlXMLObjects , S t r i n g
urlXSDObjects , int i d O b j e c t , int o r d e r )
throws LoadXMLException , XPathExpressionException ,
NoSuchExtensionObject3DException , IOException
{
t h i s . xml = urlXMLObjects ;
t h i s . xsd = urlXSDObjects ;
l o a d F i l e ( true ) ;
searchObject ( res , idObject , order ) ;
}
}
Paquete data C.15: ObjectsXMLCompiler.java
CompilerGenerator.java
package com . i v a n l o r e n z o . data ;
import j a v a . i o . IOException ;
import j a v a x . xml . xpath . XPathExpressionException ;
import a n d r o i d . c o n t e n t . r e s . R e s o u r c e s ;
import com . i v a n l o r e n z o . data . e x c e p t i o n s . LoadXMLException ;
import com . i v a n l o r e n z o . data . e x c e p t i o n s . NoSuchExtensionObject3DException ;
/∗ ∗
∗ C l a s e que e s l a encar gada de i n i c i a r l a c a r g a de f i c h e r o s
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s C o mp i l er G e n er a t or
{
/∗ ∗
∗ I n s t a n c i a d e l g e s t o r de o b j e t o s
∗/
Plataforma educativa basada en realidad aumentada y dispositivos móviles
303
C. Código Fuente
public f i n a l s t a t i c KnowledgeBase BASE = KnowledgeBase . g e t I n s t a n c e
() ;
/∗ ∗
∗ Método que s e l l a m a r á d e s d e para c a r g a r l o s d a t o s
∗ @param r e s Recursos de l a a p l i c a c i ó n
∗ @param urlXMLPatterns F i c h e r o XML con l o s p a t r o n e s
∗ @param urlXSDPatterns F i c h e r o XSD de l o s p a t r o n e s
∗ @param urlXMLObjects F i c h e r o XML con l o s o b j e t o s
∗ @param urlXSDObjects F i c h e r o XSD de l o s o b j e t o s
∗ @throws LoadXMLException S i hay a l g ú n e r r o r en l a c a r g a
∗ @throws X P a t h E x p r e s s i o n E x c e p t i o n S i s e produce un e r r o r en una
e x p r e s i ó n XPath
∗ @throws NoSuchExtensionObject3DException S i e l o b j e t o no t i e n e
una e x t e n s i ó n 3D v á l i d a
∗ @throws IOException En c a s o de que no s e pueda a c c e d e r a l a URL
l a n z a rı́ a una IOException
∗/
public s t a t i c void c o m p i l e ( R e s o u r c e s r e s , S t r i n g urlXMLPatterns ,
S t r i n g urlXSDPatterns ,
S t r i n g urlXMLObjects , S t r i n g urlXSDObjects ) throws
LoadXMLException , XPathExpressionException ,
NoSuchExtensionObject3DException , IOException
{
AugmentedRealityXMLCompiler c o m p i l e r P a t t = new
AugmentedRealityXMLCompiler ( ) ;
c o m p i l e r P a t t . l o a d ( r e s , urlXMLPatterns , urlXSDPatterns ,
urlXMLObjects , urlXSDObjects ) ;
}
}
Paquete data C.16: CompilerGenerator.java
KnowledgeBase.java
package com . i v a n l o r e n z o . data ;
import j a v a . i o . InputStream ;
import j a v a . u t i l . A r r a y L i s t ;
import j a v a . u t i l . L i s t ;
import com . i v a n l o r e n z o . data . o b j e c t s . Object3D ;
import min3d . a n i m a t i o n . AnimationObject3d ;
import min3d . c o r e . Object3d ;
import min3d . c o r e . O b j e c t 3 d C o n t a i n e r ;
import com . i v a n l o r e n z o . p a r s e r . I P a r s e r ;
import com . i v a n l o r e n z o . p a r s e r . P a r s e r ;
import com . i v a n l o r e n z o . p a r s e r . P a r s e r . Type ;
304
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
import a n d r o i d . c o n t e n t . r e s . R e s o u r c e s ;
import com . i v a n l o r e n z o . g u i .R;
/∗ ∗
∗ C l a s e <em>S i n g l e t o n </em> que c o n t i e n e l a b a s e de c o n o c i m i e n t o de l a
a p l i c a c i ó n . Contendr t a n t o l a l i s t a de p a t r o n e s ( markers ) como l a l i s t a
de l o c a l i z a c i o n e s y de o b j e t o s .
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s KnowledgeBase
{
/∗ ∗
∗ Única i n s t a n c i a de l a b a s e de c o n o c i m i e n t o
∗/
private s t a t i c KnowledgeBase i n s t a n c e = new KnowledgeBase ( ) ;
/∗ ∗
∗ L i s t a de p a t r o n e s ( markers ) de l a a p l i c a c i ó n
∗/
private L i s t <Pattern> p a t t e r n s ;
/∗ ∗
∗ L i s t a de g e o l o c a l i z a c i o n e s de l a a p l i c a c i ó n
∗/
private L i s t <GeoLocation> l o c a t i o n s ;
/∗ ∗
∗ L i s t a de o b j e t o s c a r g a d o s en l a a p l i c a c i ó n
∗/
private L i s t <Object3D> o b j e c t s ;
/∗ ∗
∗ C o n s t r u c t o r s i n pa rám et ros que s i m p l e m e n t e c r e a l a s e s t r u c t u r a s
de d a t o s para almacenar l a i n f o r m a c i ó n
∗/
private KnowledgeBase ( )
{
p a t t e r n s = new A r r a y L i s t <Pattern >() ;
o b j e c t s = new A r r a y L i s t <Object3D >() ;
l o c a t i o n s = new A r r a y L i s t <GeoLocation >() ;
}
/∗ ∗
∗ Método e s t á t i c o que d e v u e l v e l a ú n i c a i n s t a n c i a de l a c l a s e
∗ @return La i n s t a n c i a de l a c l a s e
∗/
public s t a t i c KnowledgeBase g e t I n s t a n c e ( )
{
return i n s t a n c e ;
}
/∗ ∗
Plataforma educativa basada en realidad aumentada y dispositivos móviles
305
C. Código Fuente
∗ Guarda un o b j e t o 3d
∗ @param o b j D a t a O b j e t o a g u a r d a r
∗/
public void s a v e O b j e c t ( Object3D objData )
{
o b j e c t s . add ( objData ) ;
}
/∗ ∗
∗ Guarda un p a t r ó n
∗ @param patData Patrón a g u a r d a r
∗/
public void s a v e P a t t e r n ( P a t t e r n patData )
{
p a t t e r n s . add ( patData ) ;
}
/∗ ∗
∗ Guarda una l o c a l i z a c i ó n GPS
∗ @param l o c a t i o n L o c a l i z a c i ó n a g u a r d a r
∗/
public void s a v e L o c a t i o n ( GeoLocation l o c a t i o n )
{
l o c a t i o n s . add ( l o c a t i o n ) ;
}
/∗ ∗
∗ Método que b o r r a l a s l i s t a s de o b j e t o s y p a t r o n e s
∗/
public void c l e a r ( )
{
patterns . clear () ;
objects . clear () ;
locations . clear () ;
}
/∗ ∗
∗ O b t i e n e l a l i s t a de p a t r o n e s de l a b a s e de c o n o c i m i e n t o
∗ @return L i s t a de p a t r o n e s
∗/
public L i s t <Pattern> g e t P a t t e r n s ( )
{
return p a t t e r n s ;
}
/∗ ∗
∗ D e v u e l v e una l i s t a de f l u j o de b y t e s c o r r e s p o n d i e n t e a l o s
patrones
∗ @param r e s Recursos de l a a p l i c a c i ó n
∗ @return L i s t a de f l u j o de b y t e s c o r r e s p o n d i e n t e s a l o s p a t r o n e s
∗/
public A r r a y L i s t <InputStream> g e t P a t t e r n s ( R e s o u r c e s r e s )
{
A r r a y L i s t <InputStream> p a t t = new A r r a y L i s t <InputStream >() ;
for ( Pattern pattern : getPatterns ( ) )
{
306
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
p a t t . add (
r e s . openRawResource (
res . getIdentifier (
pattern .
getName
( ) , "raw"
, R.
class .
getPackage
() .
getName
() )
) );
}
return p a t t ;
}
/∗ ∗
∗ D e v u e l v e e l p a t r ó n que s e c o r r e s p o n d e con un i d e n t i f i c a d o r
∗ @param i d I d e n t i f i c a d o r d e l p a t r ó n
∗ @return Patrón b u s c a d o
∗/
public P a t t e r n g e t P a t t e r n ( int i d )
{
P a t t e r n s e a r c h p a t t e r n = null ;
for ( Pattern pattern : p a t t e r n s )
{
i f ( p a t t e r n . g e t I d ( ) == i d )
searchpattern = pattern ;
}
return s e a r c h p a t t e r n ;
}
/∗ ∗
∗ L i s t a d o de l o c a l i z a c i o n e s
∗ @return L i s t a de g e o l o c a l i z a c i o n e s de l a b a s e de c o n o c i m i e n t o
∗/
public L i s t <GeoLocation> g e t L o c a t i o n s ( )
{
return l o c a t i o n s ;
}
/∗ ∗
∗ D e v u e l v e l a l i s t a de o b j e t o s de l a b a s e de c o n o c i m i e n t o
∗ @return L i s t a de o b j e t o s
∗/
public L i s t <Object3D> g e t O b j e c t s ( )
{
return o b j e c t s ;
}
Plataforma educativa basada en realidad aumentada y dispositivos móviles
307
C. Código Fuente
/∗ ∗
∗ D e v u e l v e un l i s t a d o de o b j e t o s que s e deben v i s u a l i z a r en l a
a p l i c a c i ó n
∗ @param r e s Recursos de l a a p l i c a c i ó n
∗ @return L i s t a d o de o b j e t o s para s e r v i s u a l i z a d o s
∗/
public L i s t <Object3d> g e t O b j e c t s T o S c e n e ( R e s o u r c e s r e s )
{
L i s t <Object3d> o b j e c t s T o S c e n e = new A r r a y L i s t <Object3d >() ;
I P a r s e r p a r s e r = null ;
f o r ( Object3D o b j e c t : o b j e c t s )
{
i f ( o b j e c t . g e t F i l e ( ) . s t a r t s W i t h ( "http ://" ) )
p a r s e r = P a r s e r . c r e a t e P a r s e r ( o b j e c t . getType
() ,
object . getFile () , object .
getTexture ( ) ) ;
else
p a r s e r = P a r s e r . c r e a t e P a r s e r ( o b j e c t . getType
() ,
r e s , R. c l a s s . getPackage ( ) .
getName ( )+":raw/"+
object .
getFileWithoutExtension
()
, false ) ;
i f ( o b j e c t . getType ( ) == Type .MD2)
{
AnimationObject3d a n i m a t i o n O b j e c t 3 d = null ;
parser . parse () ;
animationObject3d = parser .
getParsedAnimationObject ( ) ;
a n i m a t i o n O b j e c t 3 d . r o t a t i o n ( ) . z = −90.0 f ;
animationObject3d . s c a l e ( ) . x =
animationObject3d . s c a l e ( ) . y =
animationObject3d . s c a l e ( ) . z = 1.0 f ;
animationObject3d . setFps (30) ;
o b j e c t s T o S c e n e . add ( a n i m a t i o n O b j e c t 3 d ) ;
}
e l s e i f ( o b j e c t . getType ( ) == Type . MAX 3DS | |
o b j e c t . getType ( ) == Type . OBJ )
{
Object3dContainer container ;
parser . parse () ;
container = parser . getParsedObject () ;
308
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
f o r ( Object3d subObject : c o n t a i n e r . c h i l d r e n
() )
{
subObject . r o t a t i o n ( ) . x = 9 0 . 0 f ;
subObject . s c a l e ( ) . x = subObject .
s c a l e ( ) . y = subObject . s c a l e ( ) . z
= 1f ;
o b j e c t s T o S c e n e . add ( subObject ) ;
}
}
}
return o b j e c t s T o S c e n e ;
}
/∗ ∗
∗ D e v u e l v e un o b j e t o b u s c a d o por su i d e n t i f i c a d o r
∗ @param i d I d e n t i f i c a d o r d e l o b j e t o a b u s c a r
∗ @return O b j e t o b u s c a d o
∗/
public Object3D g e t O b j e c t ( int i d )
{
Object3D s e a r c h o b j e c t = null ;
f o r ( Object3D o b j e c t : o b j e c t s )
{
i f ( o b j e c t . g e t I d ( ) == i d )
searchobject = object ;
}
return s e a r c h o b j e c t ;
}
}
Paquete data C.17: KnowledgeBase.java
Pattern.java
package com . i v a n l o r e n z o . data ;
/∗ ∗
∗ C l a s e que c o n t i e n e l a s p r o p i e d a d e s d e l p a t r ó n a l que l e i r á a s i g n a d o un
objeto
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s P a t t e r n
Plataforma educativa basada en realidad aumentada y dispositivos móviles
309
C. Código Fuente
{
/∗ ∗
∗ I d e n t i f i c a d o r d e l p a t r ó n
∗/
private int i d ;
/∗ ∗
∗ Nombre d e l p a t r ó n
∗/
private S t r i n g name ;
/∗ ∗
∗ I d e n t i f i c a d o r d e l o b j e t o que t i e n e a s i g n a d o
∗/
private int i d O b j e c t ;
/∗ ∗
∗ C o n s t r u c t o r s i n pa rám et ros
∗/
public P a t t e r n ( )
{
}
/∗ ∗
∗ Constructor
∗ @param i d I d e n t i f i c a d o r d e l p a t r ó n
∗ @param name Nombre d e l p a t r ó n
∗ @param i d O b j e c t I d e n t i f i c a d o r d e l o b j e t o que t i e n e a s i g n a d o
∗/
public P a t t e r n ( int id , S t r i n g name , int i d O b j e c t )
{
this . id = id ;
t h i s . name = name ;
this . idObject = idObject ;
}
/∗ ∗
∗ D e v u e l v e e l i d e n t i f i c a d o r d e l p a t r ó n
∗ @return I d e n t i f i c a d o r d e l p a t r ó n
∗/
public int g e t I d ( ) {
return i d ;
}
/∗ ∗
∗ E s t a b l e c e e l i d e n t i f i c a d o r d e l p a t r ó n
∗ @param i d I d e n t i f i c a d o r d e l p a t r ó n
∗/
public void s e t I d ( int i d ) {
this . id = id ;
}
310
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
/∗ ∗
∗ D e v u e l v e e l i d e n t i f i c a d o r d e l o b j e t o a s i g n a d o a l p a t r ó n
∗ @return I d e n t i f i c a d o r d e l o b j e t o a s i g n a d o a l p a t r ó n
∗/
public int g e t I d O b j e c t ( ) {
return i d O b j e c t ;
}
/∗ ∗
∗ E s t a b l e c e e l i d e n t i f i c a d o r d e l o b j e t o a s i g n a d o a l p a t r ó n
∗ @param i d O b j e c t I d e n t i f i c a d o r d e l o b j e t o a s i g n a d o a l p a t r ó n
∗/
public void s e t I d O b j e c t ( int i d O b j e c t ) {
this . idObject = idObject ;
}
/∗ ∗
∗ D e v u e l v e e l nombre d e l p a t r ó n
∗ @return El nombre d e l p a t r ó n
∗/
public S t r i n g getName ( ) {
return name ;
}
/∗ ∗
∗ E s t a b l e c e e l nombre d e l p a t r ó n
∗ @param name El nombre d e l p a t r ó n
∗/
public void setName ( S t r i n g name ) {
t h i s . name = name ;
}
}
Paquete data C.18: Pattern.java
GeoLocation.java
package com . i v a n l o r e n z o . data ;
import a n d r o i d . l o c a t i o n . L o c a t i o n ;
/∗ ∗
∗ C l a s e que s e c o r r e s p o n d e con una l o c a l i z a c i ó n de l o s f i c h e r o s de
c o n f i g u r a c i ó n de l a a p l i c a c i ó n . Tendrá un i d e n t i f i c a d o r , un nombre , una
l o c a l i z a c i ó n GPS
∗ y un o b j e t o a s o c i a d o
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s GeoLocation
{
Plataforma educativa basada en realidad aumentada y dispositivos móviles
311
C. Código Fuente
/∗ ∗
∗ I d e n t i f i c a d o r de l a l o c a l i z a c i ó n
∗/
private int i d ;
/∗ ∗
∗ Nombre d e l l u g a r
∗/
private S t r i n g name ;
/∗ ∗
∗ L o c a l i z a c i ó n GPS
∗/
private L o c a t i o n l o c a t i o n ;
/∗ ∗
∗ I d e n t i f i c a d o r del objeto asociado
∗/
private int i d O b j e c t ;
/∗ ∗
∗ C o n s t r u c t o r en e l que s e e s t a b l e c e n l o s a t r i b u t o s
∗ @param i d I d e n t i f i c a d o r de l a l o c a l i z a c i ó n
∗ @param name Nombre d e l l u g a r
∗ @param l a t i t u d e L a t i t u d g e o g r á f i c a
∗ @param l o n g i t u d e L o n g i t u d g e o g r á f i c a
∗ @param i d O b j e c t I d e n t i f i c a d o r d e l o b j e t o a s o a c i a d o
∗/
public GeoLocation ( int id , S t r i n g name , double l a t i t u d e , double
l o n g i t u d e , int i d O b j e c t )
{
l o c a t i o n = new L o c a t i o n ( " ObjectLocation " ) ;
location . setLatitude ( latitude ) ;
location . setLongitude ( longitude ) ;
this . id = id ;
t h i s . name = name ;
this . idObject = idObject ;
}
/∗ ∗
∗ D e v u e l v e l a l o c a l i z a c i ó n
∗ @return L o c a l i z a c i ó n
∗/
public L o c a t i o n g e t L o c a t i o n ( )
{
return l o c a t i o n ;
}
/∗ ∗
∗ Devuelve e l i d e n t i f i c a d o r d e l o b j e t o asociado
312
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
∗ @return I d e n t i f i c a d o r d e l o b j e t o a s o c i a d o
∗/
public int g e t I d O b j e c t ( )
{
return i d O b j e c t ;
}
/∗ ∗
∗ D e v u e l v e e l i d e n t i f i c a d o r de l a l o c a l i z a c i ó n
∗ @return I d e n t i f i c a d o r de l a l o c a l i z a c i ó n
∗/
public int g e t I d ( ) {
return i d ;
}
/∗ ∗
∗ D e v u e l v e e l nombre d e l l u g a r
∗ @return Nombre d e l l u g a r
∗/
public S t r i n g getName ( ) {
return name ;
}
}
Paquete data C.19: GeoLocation.java
C.4.2.
Paquete com.ivanlorenzo.data.objects
objects/Object3DCreator.java
package com . i v a n l o r e n z o . data . o b j e c t s ;
import com . i v a n l o r e n z o . g u i .R;
import a n d r o i d . c o n t e n t . r e s . R e s o u r c e s ;
import
import
import
import
com . i v a n l o r e n z o . data . e x c e p t i o n s . NoSuchExtensionObject3DException ;
com . i v a n l o r e n z o . data . o b j e c t s . a u d i o . Audio ;
com . i v a n l o r e n z o . data . o b j e c t s . a u d i o . LocalAudio ;
com . i v a n l o r e n z o . data . o b j e c t s . a u d i o . RemoteAudio ;
/∗ ∗
∗ C l a s e f a c t o rı́ a que s e r á l a en cargad a de c r e a r un o b j e t o d et er mi n ad o en
f u n c i ó n de su t i p o . Para e s t o
∗ u t i l i z a a l g u n o de s u s métodos e s t á t i c o s
∗ @author Iván Lorenzo Rubio
∗
∗/
Plataforma educativa basada en realidad aumentada y dispositivos móviles
313
C. Código Fuente
public f i n a l c l a s s Object3DCreator
{
/∗ ∗
∗ C o n s t r u c t o r p r i v a d o para que no s e puedan c r e a r i n s t a n c i a s de
esta clase
∗/
private Object3DCreator ( ) {}
/∗ ∗
∗ Método enca rgado de c r e a r un o b j e t o de te r mi na d o en f u n c i ó n d e l
t i p o d e l f i c h e r o l eı́ d o
∗ @param r e s Recursos de l a a p l i c a c i ó n
∗ @param i d I d e n t i f i c a d o r d e l o b j e t o
∗ @param name Nombre d e l o b j e t o
∗ @param d e s c r i p t i o n D e s c r i p c i ó n d e l o b j e t o
∗ @param f i l e Archivo l eı́ d o
∗ @param t y p e Tipo d e l f i c h e r o
∗ @param t e x t u r e Imagen de t e x t u r a
∗ @param mediaPlayer Audio a s i g n a d o a l o b j e t o
∗ @param o r d e r Orden en que s e almacerá
∗ @return El o b j e t o c r e a d o
∗ @throws NoSuchExtensionObject3DException Se l a n z a r á una
e x c e p c i ó n s i no c o i n c i d e con ninguno de l o s
∗ t i p o s de o b j e t o s s o p o r t a d o s en l a a p l i c a c i ó n
∗/
public s t a t i c Object3D c r e a t e O b j e c t ( R e s o u r c e s r e s , int id , S t r i n g
name ,
S t r i n g d e s c r i p t i o n , S t r i n g f i l e , S t r i n g type ,
String texture ,
S t r i n g mediaPlayer , int o r d e r ) throws
NoSuchExtensionObject3DException
{
Audio a u d i o = g e n e r a t e A u d i o ( r e s , mediaPlayer , i d ) ;
i f ( type . e q u a l s I g n o r e C a s e ( "3DS" ) )
return new Max3DSObject ( id , name , d e s c r i p t i o n , f i l e
, t e x t u r e , audio , o r d e r ) ;
e l s e i f ( type . e q u a l s I g n o r e C a s e ( "OBJ" ) )
return new OBJObject ( id , name , d e s c r i p t i o n , f i l e ,
t e x t u r e , audio , o r d e r ) ;
e l s e i f ( type . e q u a l s I g n o r e C a s e ( "MD2" ) )
return new MD2Object ( id , name , d e s c r i p t i o n , f i l e ,
t e x t u r e , audio , o r d e r ) ;
e l s e i f ( type . e q u a l s I g n o r e C a s e ( "" ) )
return new Max3DSObject ( id , name , d e s c r i p t i o n ,
res
. g e t S t r i n g (R. s t r i n g . NO OBJECT 3D) , t e x t u r e ,
audio , o r d e r ) ;
throw new NoSuchExtensionObject3DException ( ) ;
}
/∗ ∗
∗ Método que g e n e r a un Audio c o n c r e t o
∗ @param r e s Recursos de l a a p l i c a c i ó n
∗ @param a u d i o URL d e l f i c h e r o de s o n i d o
314
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
∗ @param i d I d e n t i f i c a d o r d e l o b j e t o a l que s e a s o c i a r á e l a u d i o
∗ @return Una i n s t a n c i a c o n c r e t a de Audio
∗/
private s t a t i c Audio g e n e r a t e A u d i o ( R e s o u r c e s r e s , S t r i n g audio , int
id )
{
i f ( a u d i o == "" )
return null ;
i f ( a u d i o . s t a r t s W i t h ( "http ://" ) )
{
return new RemoteAudio ( audio , i d ) ;
}
int d o t p o s i t i o n= a u d i o . l a s t I n d e x O f ( "." ) ;
return new LocalAudio (
res . getIdentifier (
audio . s u b s t r i n g (0 ,
d o t p o s i t i o n ) , "raw" ,
R. c l a s s . getPackage ( ) .
getName ( ) ) ) ;
}
}
Paquete data C.20: objects/Object3DCreator.java
objects/Object3D.java
package com . i v a n l o r e n z o . data . o b j e c t s ;
import com . i v a n l o r e n z o . data . o b j e c t s . a u d i o . Audio ;
import com . i v a n l o r e n z o . p a r s e r . P a r s e r . Type ;
/∗ ∗
∗ C l a s e a b s t r a c t a que r e p r e s e n t a un o b j e t o 3d p r o v e n i e n t e de l o s f i c h e r o s
de c o n f i g u r a c i ó n
∗ @author Iván Lorenzo Rubio
∗
∗/
public abstract c l a s s Object3D
{
/∗ ∗
∗ Identificador del objeto
∗/
int i d ;
/∗ ∗
∗ Nombre d e l o b j e t o
∗/
S t r i n g name ;
/∗ ∗
∗ F i c h e r o 3D
Plataforma educativa basada en realidad aumentada y dispositivos móviles
315
C. Código Fuente
∗/
File3D f i l e 3 D ;
/∗ ∗
∗ Textura d e l o b j e t o
∗/
String texture ;
/∗ ∗
∗ D e s c r i p c i ó n s o b r e e l o b j e t o
∗/
String description ;
/∗ ∗
∗ Audio
∗/
Audio a u d i o ;
/∗ ∗
∗ Orden en que e l o b j e t o s e almacena
∗/
int o r d e r ;
/∗ ∗
∗ C o n s t r u c t o r de l a c l a s e
∗ @param i d I d e n t i f i c a d o r d e l o b j e t o
∗ @param name Nombre d e l o b j e t o
∗ @param d e s c r i p t i o n D e s c r i p c i ó n d e l o b j e t o
∗ @param f i l e Nombre d e l f i c h e r o
∗ @param t e x t u r e Textura
∗ @param a u d i o Audio d e l o b j e t o
∗ @param o r d e r Orden en e l que s e almacena
∗/
public Object3D ( int id , S t r i n g name , S t r i n g d e s c r i p t i o n , S t r i n g
f i l e , String texture ,
Audio audio , int o r d e r )
{
this . id = id ;
t h i s . name = name ;
this . d e s c r i p t i o n = d e s c r i p t i o n ;
this . audio = audio ;
this . order = order ;
this . texture = texture ;
}
/∗ ∗
∗ Devuelve e l i d e n t i f i c a d o r
∗ @return I d e n t i f i c a d o r d e l o b j e t o
∗/
public int g e t I d ( ) {
return i d ;
}
/∗ ∗
∗ D e v u e l v e e l nombre
316
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
∗ @return Nombre d e l o b j e t o
∗/
public S t r i n g getName ( ) {
return name ;
}
/∗ ∗
∗ Comprueba s i e l o b j e t o t i e n e un f i c h e r o 3d a s o c i a d o
∗ @return Verdadero s i d i s p o n e de un f i c h e r o 3d , f a l s o en c a s o
contrario
∗/
public boolean h a s 3 D F i l e ( )
{
return f i l e 3 D != null ? true : f a l s e ;
}
/∗ ∗
∗ D e v u e l v e e l nombre d e l f i c h e r o
∗ @return Nombre d e l f i c h e r o 3D
∗/
public S t r i n g g e t F i l e ( )
{
return f i l e 3 D . getName ( ) ;
}
/∗ ∗
∗ D e v u e l v e e l nombre d e l f i c h e r o s i n e x t e n s i ó n
∗ @return Nombre d e l f i c h e r o s u p r i m i e n d o l a e x t e n s i ó n
∗/
public S t r i n g g e t F i l e W i t h o u t E x t e n s i o n ( )
{
int d o t p o s i t i o n= f i l e 3 D . getName ( ) . l a s t I n d e x O f ( "." ) ;
return f i l e 3 D . getName ( ) . s u b s t r i n g ( 0 , d o t p o s i t i o n ) ;
}
/∗ ∗
∗ Tipo d e l f i c h e r o
∗ @return El t i p o d e l f i c h e r o
∗/
public Type getType ( )
{
return f i l e 3 D . getType ( ) ;
}
/∗ ∗
∗ D e v u e l v e l a d e s c r i p c i ó n
∗ @return La d e s c r i p c i ó n d e l o b j e t o
∗/
public S t r i n g g e t D e s c r i p t i o n ( ) {
return d e s c r i p t i o n ;
}
/∗ ∗
∗ Devuelve l a t e x t u r a
Plataforma educativa basada en realidad aumentada y dispositivos móviles
317
C. Código Fuente
∗ @return La t e x t u r a d e l o b j e t o
∗/
public S t r i n g g e t T e x t u r e ( )
{
return t e x t u r e ;
}
/∗ ∗
∗ Devuelve e l audio
∗ @return Audio d e l o b j e t o
∗/
public Audio getAudio ( )
{
return a u d i o ;
}
/∗ ∗
∗ Devuelve e l i d e n t i f i c a d o r d e l audio
∗ @return I d e n t i f i c a d o r d e l a u d i o
∗/
public int getAudioID ( ) {
return a u d i o . g e t I d ( ) ;
}
/∗ ∗
∗ D e v u e l v e e l orden d e l o b j e t o
∗ @return Orden d e l o b j e t o
∗/
public int g e t O r d e r ( )
{
return o r d e r ;
}
/∗ ∗
∗ C l a s e que r e p r e s e n t a un f i c h e r o 3D
∗ @author Iván Lorenzo Rubio
∗/
c l a s s File3D
{
/∗ ∗
∗ Nombre d e l f i c h e r o 3D
∗/
private S t r i n g name ;
public S t r i n g getName ( ) {
return name ;
}
/∗ ∗
∗ Tipo d e l f i c h e r o 3D
∗/
private Type type ;
public Type getType ( ) {
318
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
return type ;
}
/∗ ∗
∗ Constructo
∗ @param name Nombre d e l f i c h e r o
∗ @param t y p e E x t e n s i ó n d e l f i c h e r o
∗/
public File3D ( S t r i n g name , Type type )
{
t h i s . name = name ;
t h i s . type = type ;
}
}
}
Paquete data C.21: objects/Object3D.java
objects/Max3DSObject.java
package com . i v a n l o r e n z o . data . o b j e c t s ;
import com . i v a n l o r e n z o . data . o b j e c t s . a u d i o . Audio ;
import com . i v a n l o r e n z o . p a r s e r . P a r s e r ;
/∗ ∗
∗ C l a s e que r e p r e s e n t a un o b j e t o con formato 3 ds . Esta c l a s e h e r e d a de
Ojbect3D
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s Max3DSObject extends Object3D
{
/∗ ∗
∗ Constructor
∗ @param i d I d e n t i f i c a d o r d e l o b j e t o
∗ @param name Nombre d e l o b j e t o
∗ @param d e s c r i p t i o n D e s c r i p c i ó n d e l o b j e t o
∗ @param f i l e F i c h e r o 3d
∗ @param t e x t u r e Imagen de t e x t u r a
∗ @param a u d i o Audio d e l o b j e t o
∗ @param o r d e r Número de orden en e l que almacenará
∗/
public Max3DSObject ( int id , S t r i n g name , S t r i n g d e s c r i p t i o n , S t r i n g
f i l e , String texture ,
Audio audio , int o r d e r ) {
super ( id , name , d e s c r i p t i o n , f i l e , t e x t u r e , audio , o r d e r ) ;
t h i s . f i l e 3 D = new File3D ( f i l e , P a r s e r . Type . MAX 3DS) ;
}
Plataforma educativa basada en realidad aumentada y dispositivos móviles
319
C. Código Fuente
}
Paquete data C.22: objects/Max3DSObject.java
objects/MD2Object.java
package com . i v a n l o r e n z o . data . o b j e c t s ;
import com . i v a n l o r e n z o . data . o b j e c t s . a u d i o . Audio ;
import com . i v a n l o r e n z o . p a r s e r . P a r s e r ;
/∗ ∗
∗ C l a s e que r e p r e s e n t a un o b j e t o con formato md2 . Esta c l a s e h e r e d a de
Ojbect3D
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s MD2Object extends Object3D
{
/∗ ∗
∗ Constructor
∗ @param i d I d e n t i f i c a d o r d e l o b j e t o
∗ @param name Nombre d e l o b j e t o
∗ @param d e s c r i p t i o n D e s c r i p c i ó n d e l o b j e t o
∗ @param f i l e F i c h e r o 3d
∗ @param t e x t u r e Imagen de t e x t u r a
∗ @param a u d i o Audio d e l o b j e t o
∗ @param o r d e r Número de orden en e l que almacenará
∗/
public MD2Object ( int id , S t r i n g name , S t r i n g d e s c r i p t i o n , S t r i n g
f i l e , String texture ,
Audio audio , int o r d e r ) {
super ( id , name , d e s c r i p t i o n , f i l e , t e x t u r e , audio , o r d e r ) ;
t h i s . f i l e 3 D = new File3D ( f i l e , P a r s e r . Type .MD2) ;
}
}
Paquete data C.23: objects/MD2Object.java
objects/OBJObject.java
package com . i v a n l o r e n z o . data . o b j e c t s ;
import com . i v a n l o r e n z o . data . o b j e c t s . a u d i o . Audio ;
import com . i v a n l o r e n z o . p a r s e r . P a r s e r ;
/∗ ∗
∗ C l a s e que r e p r e s e n t a un o b j e t o con formato o b j . Esta c l a s e h e r e d a de
Ojbect3D
320
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s OBJObject extends Object3D
{
/∗ ∗
∗ Constructor
∗ @param i d I d e n t i f i c a d o r d e l o b j e t o
∗ @param name Nombre d e l o b j e t o
∗ @param d e s c r i p t i o n D e s c r i p c i ó n d e l o b j e t o
∗ @param f i l e F i c h e r o 3d
∗ @param t e x t u r e Imagen de t e x t u r a
∗ @param a u d i o Audio d e l o b j e t o
∗ @param o r d e r Número de orden en e l que almacenará
∗/
public OBJObject ( int id , S t r i n g name , S t r i n g d e s c r i p t i o n , S t r i n g
f i l e , String texture ,
Audio audio , int o r d e r ) {
super ( id , name , d e s c r i p t i o n , f i l e , t e x t u r e , audio , o r d e r ) ;
t h i s . f i l e 3 D = new File3D ( f i l e , P a r s e r . Type . OBJ) ;
}
}
Paquete data C.24: objects/OBJObject.java
C.4.3.
Paquete com.ivanlorenzo.data.objects.audio
objects/audio/MediaPlayerAdapter.java
package com . i v a n l o r e n z o . data . o b j e c t s . a u d i o ;
import j a v a . i o . IOException ;
import
import
import
import
com . i v a n l o r e n z o . g u i . ARStatus ;
com . i v a n l o r e n z o . l o c a t i o n . LocationData ;
com . i v a n l o r e n z o . l o c a t i o n . o b s e r v e r . ARObservable ;
com . i v a n l o r e n z o . l o c a t i o n . o b s e r v e r . IARObserver ;
import
import
import
import
a n d r o i d . c o n t e n t . Context ;
a n d r o i d . media . AudioManager ;
a n d r o i d . media . MediaPlayer ;
a n d r o i d . n e t . Uri ;
/∗ ∗
∗ C l a s e a d a p t a d o r a d e l p a t r ó n <em>Adapter </em> que a d a p t a l a c l a s e
MediaPlayer y además e s un s u j e t o o b s e r v a b l e
∗ ya que cuando f i n a l i c e e l a u d i o d e b e r á a v i s a r a s u s o b s e r v a d o r e s para
que r e a l i c e n l a s a c c i o n e s o p o r t u n a s
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s MediaPlayerAdapter extends ARObservable<LocationData>
{
Plataforma educativa basada en realidad aumentada y dispositivos móviles
321
C. Código Fuente
/∗ ∗
∗ MediaPlayer que vamos a a d a p t a r
∗/
private MediaPlayer mediaPlayer ;
/∗ ∗
∗ Identificador del player
∗/
private int r e s I D ;
/∗ ∗
∗ V a r i a b l e que nos i n d i c a r á s i e s t á sonando o no
∗/
private boolean i s P l a y i n g = f a l s e ;
/∗ ∗
∗ V a r i a b l e que nos i n d i c a s i e s t á marcado como r e p e t i c i ó n
∗/
private boolean l o o p = f a l s e ;
/∗ ∗
∗ C o n s t r u c t o r de l a c l a s e en e l que s e c r e a un o b j e t o MediaPlayer
y g e s t i o n a e l e v e n t o onCompletion ,
∗ que i n f o r m a r á cuando f i n a l i c e e l a u d i o
∗ @param c t x C o n t e x t o de l a a p l i c a c i ó n
∗ @param resID I d e n t i f i c a d o r d e l a u d i o
∗/
public MediaPlayerAdapter ( Context ctx , int r e s I D )
{
this . resID = resID ;
mediaPlayer = MediaPlayer . c r e a t e ( ctx , r e s I D ) ;
mediaPlayer . s e t O n C o m p l e t i o n L i s t e n e r (new MediaPlayer .
On Co mp le ti on Li st ene r ( )
{
@Override
public void onCompletion ( MediaPlayer mp)
{
isPlaying = false ;
i f ( loop )
{
mp. s t a r t ( ) ;
}
notifyObservers () ;
}
}) ;
mediaPlayer . s t a r t ( ) ;
}
/∗ ∗
∗ C o n s t r u c t o r de l a c l a s e usado para r e p r o d u c i r un a u d i o remoto ,
en e l que s e c r e a un o b j e t o
∗ de l a c l a s e MediaPlayer y s e l e e s t a b l e c e un d a t a s o u r c e que s e r á
l a u r l con e l f i c h e r o a r e p r o d u c i r .
322
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
∗ También g e s t i o n a e l e v e n t o onCompletion que i n f o r m a r á cuando
f i n a l i c e e l audio .
∗ @param c t x C o n t e x t o de l a a p l i c a c i ó n
∗ @param u r l D i r e c c i ó n d e l f i c h e r o a r e p r o d u c i r
∗ @param i d I d e n t i f i c a d o r d e l a u d i o
∗/
public MediaPlayerAdapter ( Context ctx , S t r i n g u r l , int i d )
{
this . resID = id ;
try
{
// t h i s . resID = resID ;
mediaPlayer = new MediaPlayer ( ) ;
mediaPlayer . s e t D a t a S o u r c e ( ctx , Uri . p a r s e ( u r l ) ) ;
mediaPlayer . setAudioStreamType ( AudioManager .
STREAM MUSIC) ;
mediaPlayer . p r e p a r e ( ) ;
mediaPlayer . s e t O n C o m p l e t i o n L i s t e n e r (new MediaPlayer
. OnC om pl et io nL is te ne r ( )
{
@Override
public void onCompletion ( MediaPlayer mp)
{
isPlaying = false ;
i f ( loop )
{
mp. s t a r t ( ) ;
}
notifyObservers () ;
}
}) ;
i s P l a y i n g = true ;
mediaPlayer . s t a r t ( ) ;
}
catch ( IOException e )
{
e . printStackTrace () ;
}
}
/∗ ∗
∗ Método que i n i c i a l a r e p r o d u c c i ó n d e l a u d i o
∗/
public synchronized void p l a y ( )
{
if ( isPlaying )
return ;
i f ( mediaPlayer != null ) {
i s P l a y i n g = true ;
mediaPlayer . s t a r t ( ) ;
}
}
/∗ ∗
Plataforma educativa basada en realidad aumentada y dispositivos móviles
323
C. Código Fuente
∗ Método que d e t i e n e l a r e p r o d u c c i ó n d e l a u d i o
∗/
public synchronized void s t o p ( )
{
try
{
loop = false ;
if ( isPlaying )
{
isPlaying = false ;
mediaPlayer . pause ( ) ;
}
} catch ( E x c e p t i o n e )
{
System . e r r . p r i n t l n ( " Error " ) ;
}
}
/∗ ∗
∗ Método que pone e l r e p r o d u c t o r en modo r e p e t i c i ó n
∗/
public synchronized void l o o p ( )
{
l o o p = true ;
i s P l a y i n g = true ;
mediaPlayer . s t a r t ( ) ;
}
/∗ ∗
∗ Libera e l reproductor
∗/
public void r e l e a s e ( )
{
i f ( mediaPlayer != null )
{
mediaPlayer . r e l e a s e ( ) ;
mediaPlayer = null ;
}
}
/∗ ∗
∗ Devuelve e l i d e n t i f i c a d o r d e l audio
∗ @return El i d e n t i f i c a d o r
∗/
public int getResID ( )
{
return r e s I D ;
}
@Override
public void n o t i f y O b s e r v e r s ( )
{
324
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
LocationData data = LocationData . g e t I n s t a n c e ( ) ;
data . s e t O b j e c t ( null ) ;
data . s e t S t a t u s ( ARStatus . AR Marker ) ;
f o r ( IARObserver<LocationData> o b s e r v e r : o b s e r v e r s )
o b s e r v e r . update ( data ) ;
}
}
Paquete data C.25: objects/audio/MediaPlayerAdapter.java
objects/audio/Audio.java
package com . i v a n l o r e n z o . data . o b j e c t s . a u d i o ;
import a n d r o i d . c o n t e n t . Context ;
/∗ ∗
∗ C l a s e a b s t r a c t a Audio que t e n d r á un método a b s t r a c t o que d e v o l v e r á una
o b j e t o de l a c l a s e
∗ MediaPlayerAdapter
∗ @author Iván Lorenzo Rubio
∗
∗/
public abstract c l a s s Audio
{
/∗ ∗
∗ I d e n t i f i c a d o r d e l o b j e t o a l que p e r t e n e c e e l a u d i o
∗/
int i d ;
/∗ ∗
∗ Devuelve e l i d e n t i f i c a d o r d e l o b j e t o
∗ @return El i d e n t i f i c a d o r d e l o b j e t o a l que p e r t e n e c e e l a u d i o
∗/
public int g e t I d ( )
{
return i d ;
}
/∗ ∗
∗ Método que d e v u e l v e l a i n s t a n c i a de l a c l a s e MediaPlayerAdapter
∗ @param c t x C o n t e x t o de l a a p l i c a c i ó n
∗ @return Un o b j e t o MediaPlayerAdapter
∗/
public abstract MediaPlayerAdapter g e t M e d i a P l a y e r ( Context c t x ) ;
}
Paquete data C.26: objects/audio/Audio.java
objects/audio/LocalAudio.java
package com . i v a n l o r e n z o . data . o b j e c t s . a u d i o ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
325
C. Código Fuente
import a n d r o i d . c o n t e n t . Context ;
/∗ ∗
∗ C l a s e que h e r e d a de Audio . Se u t i l i z a r á para r e p r e s e n t a r a u d i o s que
e s t é n en e l d i s p o s i t i v o
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s LocalAudio extends Audio
{
/∗ ∗
∗ Constructor
∗ @param i d I d e n t i f i c a d o r d e l o b j e t o
∗/
public LocalAudio ( int i d )
{
this . id = id ;
}
@Override
public MediaPlayerAdapter g e t M e d i a P l a y e r ( Context c t x )
{
return new MediaPlayerAdapter ( ctx , i d ) ;
}
}
Paquete data C.27: objects/audio/LocalAudio.java
objects/audio/RemoteAudio.java
package com . i v a n l o r e n z o . data . o b j e c t s . a u d i o ;
import a n d r o i d . c o n t e n t . Context ;
/∗ ∗
∗ R e p r e s e n t a un a u d i o l o c a l i z a d o en una u b i c a c i ó n remota . Hereda de l a
c l a s e Audio
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s RemoteAudio extends Audio
{
/∗ ∗
∗ URL donde s e e n c u e n t r a e l f i c h e r o remotamente
∗/
private S t r i n g path ;
/∗ ∗
∗ Constructor
∗ @param p a t h URL remota
∗ @param i d I d e n t i f i c a d o r d e l o b j e t o que t i e n e a s o c i a d o e l a u d i o
∗/
public RemoteAudio ( S t r i n g path , int i d )
326
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
{
t h i s . path = path ;
this . id = id ;
}
@Override
public MediaPlayerAdapter g e t M e d i a P l a y e r ( Context c t x )
{
return new MediaPlayerAdapter ( ctx , path , i d ) ;
}
}
Paquete data C.28: objects/audio/RemoteAudio.java
C.4.4.
Paquete com.ivanlorenzo.data.exceptions
exceptions/LoadXMLException.java
package com . i v a n l o r e n z o . data . e x c e p t i o n s ;
/∗ ∗
∗ Excepción en e l c a s o que s e p r o d u z c a a l g ú n e r r o r en l a c a r g a de d a t o s
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s LoadXMLException extends E x c e p t i o n
{
/∗ ∗
∗ UID
∗/
private s t a t i c f i n a l long s e r i a l V e r s i o n U I D = 4949399250566900013L ;
/∗ ∗
∗ Crea una nueva e x c e p c i ó n
∗/
public LoadXMLException ( )
{
}
/∗ ∗
∗ Crea una nueva e x c e p c i ó n
∗ @param mensaje Mensaje a mostrar
∗/
public LoadXMLException ( S t r i n g mensaje )
{
super ( mensaje ) ;
}
}
Paquete data C.29: exceptions/LoadXMLException.java
Plataforma educativa basada en realidad aumentada y dispositivos móviles
327
C. Código Fuente
exceptions/NoSuchExtensionObject3DException.java
package com . i v a n l o r e n z o . data . e x c e p t i o n s ;
/∗ ∗
∗ Excepción que s e l a n z a r á cuando i n t e n t e m o s c a r g a r un f i c h e r o 3D cuya
e x t e n s i ó n no s e a . 3DS, .OBJ o .MAX
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s NoSuchExtensionObject3DException extends E x c e p t i o n
{
/∗ ∗
∗ UID
∗/
private s t a t i c f i n a l long s e r i a l V e r s i o n U I D = 1L ;
}
Paquete data C.30: exceptions/NoSuchExtensionObject3DException.java
C.4.5.
Paquete com.ivanlorenzo.location
ARLocationListener.java
package com . i v a n l o r e n z o . l o c a t i o n ;
import j a v a . u t i l . L i s t ;
import
import
import
import
import
com . i v a n l o r e n z o . data . KnowledgeBase ;
com . i v a n l o r e n z o . data . GeoLocation ;
com . i v a n l o r e n z o . g u i . ARStatus ;
com . i v a n l o r e n z o . l o c a t i o n . o b s e r v e r . ARObservable ;
com . i v a n l o r e n z o . l o c a t i o n . o b s e r v e r . IARObserver ;
import a n d r o i d . l o c a t i o n . L o c a t i o n ;
import a n d r o i d . l o c a t i o n . L o c a t i o n L i s t e n e r ;
import a n d r o i d . o s . Bundle ;
/∗ ∗
∗ C l a s e ” s u j e t o o b s e r v a b l e ” d e l p a t r ó n o b s e r v e r que , a su vez , implemente
L o c a t i o n L i s t e n e r y r e c i b e cuándo
∗ s e produce un cambio en l a p o s i c i ó n GPS y en c a s o de que e s t a p o s i c i ó n
c o n t e n g a c e r c a n o una l o c a l i z a c i ó n
∗ de l o s f i c h e r o s de c o n f i g u r a c i ó n , n o t i f i c a r á a t o d o s l o s o b s e r v a d o r e s
que d e b e m o s t r a r s e l a i n f o r m a c i ó n
∗ a s o c i a d a a d i c h a p o s i c i ó n .
∗ @author Iván Lorenzo Rubio
∗
∗/
328
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
public c l a s s A R L o c a t i o n L i s t e n e r extends ARObservable<LocationData>
implements L o c a t i o n L i s t e n e r
{
/∗ ∗
∗ D i s t a n c i a máxima a l a que mostraremos l a i n f o r m a c i ó n de l a s
posiciones
∗/
private f l o a t d i s t a n c e ;
/∗ ∗
∗ C o n s t r u c t o r de l a c l a s e que r e c i b e un o b s e r v a d o r y l a d i s t a n c i a
máxima de l a n u e s t r a a l a que mostrar
∗ i n f o r m a c i ó n
∗ @param o b s e r v e r Observador
∗ @param d i s t a n c e D i s t a n c i a máxima de l a n u e s t r a a l a que mostrar
i n f o r m a c i ó n
∗/
public A R L o c a t i o n L i s t e n e r ( IARObserver<LocationData> o b s e r v e r , f l o a t
distance )
{
t h i s . addObserver ( o b s e r v e r ) ;
this . distance = distance ;
}
@Override
public void onLocationChanged ( L o c a t i o n l o c )
{
loc . getLatitude () ;
loc . getLongitude () ;
t h i s . data = g e t L o c a t i o n D a t a ( l o c ) ;
notifyObservers () ;
}
/∗ ∗
∗ D e v u e l v e e l e s t a d o de l a l o c a l i z a c i ó n . En c a s o que e x i s t a a l g u n a
l o c a l i z a c i ó n cercana , d e v o l v e r á e l o b j e t o
∗ a s o c i a d o j u n t o con e l e s t a d o .
∗ @param c u r r e n t L o c a t i o n Nuestra p o s i c i ó n a c t u a l
∗ @return El e s t a d o de l a l o c a l i z a c i ó n
∗/
private LocationData g e t L o c a t i o n D a t a ( L o c a t i o n c u r r e n t L o c a t i o n )
{
LocationData data = LocationData . g e t I n s t a n c e ( ) ;
L i s t <GeoLocation> l o c a t i o n s = KnowledgeBase . g e t I n s t a n c e ( ) .
getLocations () ;
f o r ( GeoLocation l o c a t i o n : l o c a t i o n s )
{
i f ( currentLocation . distanceTo ( l o c a t i o n . getLocation
() ) < distance )
{
data . s e t O b j e c t ( KnowledgeBase . g e t I n s t a n c e
() . getObject ( l o c a t i o n . getIdObject () ) ) ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
329
C. Código Fuente
data . s e t S t a t u s ( ARStatus . AR GPS) ;
return data ;
}
}
data . s e t O b j e c t ( null ) ;
data . s e t S t a t u s ( ARStatus . AR Marker ) ;
return data ;
}
@Override
public void o n P r o v i d e r D i s a b l e d ( S t r i n g p r o v i d e r )
{
}
@Override
public void o n P r o v i d e r E n a b l e d ( S t r i n g p r o v i d e r )
{
}
@Override
public void onStatusChanged ( S t r i n g p r o v i d e r , int s t a t u s , Bundle
extras )
{
}
}
Paquete location C.31: ARLocationListener.java
LocationData.java
package com . i v a n l o r e n z o . l o c a t i o n ;
import com . i v a n l o r e n z o . data . o b j e c t s . Object3D ;
import com . i v a n l o r e n z o . g u i . ARStatus ;
/∗ ∗
∗ C l a s e que r e p r e s e n t a e l e s t a d o de l a l o c a l i z a c i ó n . Se implementa como un
S i n g l e t o n ya que s ó l o queremos t e n e r
∗ una ú n i c a i n s t a n c i a
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s LocationData
{
/∗ ∗
∗ I n s t a n c i a de l a c l a s e
∗/
330
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
private s t a t i c LocationData i n s t a n c e = new LocationData ( ) ;
/∗ ∗
∗ D e v u e l v e l a ú n i c a i n s t a n c i a de l a c l a s e
∗ @return I n s t a n c i a
∗/
public s t a t i c LocationData g e t I n s t a n c e ( )
{
return i n s t a n c e ;
}
/∗ ∗
∗ Estado d e l s i s t e m a de r e a l i d a d aumentada
∗/
private ARStatus s t a t u s ;
/∗ ∗
∗ O b j e t o 3D que s e e s t á mostrando
∗/
private Object3D o b j e c t ;
/∗ ∗
∗ Establece e l estado del sistema
∗ @param s t a t u s Estado e s t a b l e c i d o
∗/
public void s e t S t a t u s ( ARStatus s t a t u s ) {
this . status = status ;
}
/∗ ∗
∗ E s t a b l e c e e l o b j e t o 3D que s e muestra
∗ @param o b j e c t O b j e t o 3D a mostrar
∗/
public void s e t O b j e c t ( Object3D o b j e c t ) {
this . object = object ;
}
/∗ ∗
∗ Devuelve e l estado d e l sistema
∗ @return Estado
∗/
public ARStatus g e t S t a t u s ( ) {
return s t a t u s ;
}
/∗ ∗
∗ D e v u e l v e e l o b j e t o 3d que s e mostrará
∗ @return El o b j e t o a mostrar
∗/
public Object3D g e t O b j e c t ( ) {
return o b j e c t ;
}
Plataforma educativa basada en realidad aumentada y dispositivos móviles
331
C. Código Fuente
}
Paquete location C.32: LocationData.java
C.4.6.
Paquete com.ivanlorenzo.location.observer
observer/IARObserver.java
package com . i v a n l o r e n z o . l o c a t i o n . o b s e r v e r ;
/∗ ∗
∗ I n t e r f a c e g e n é r i c a Observadora d e l p a t r ó n O b s e r v e r . E s t e p a t r ó n d e f i n e
una d e p e n d e n c i a d e l t i p o uno−a−muchos
∗ e n t r e o b j e t o s , de manera que cuando uno de l o s o b j e t o s cambia su e s t a d o ,
e l o b s e r v a d o r s e e n c a r g a de n o t i f i c a r
∗ e s t e cambio a t o d o s l o s o t r o s d e p e n d i e n t e s .
∗ @author Iván Lorenzo Rubio
∗
∗ @param <T> El s u j e t o o b s e r v a d o
∗/
public i n t e r f a c e IARObserver<T>
{
/∗ ∗
∗ R e a l i z a l o s cambios o p o r t u n o s en e l o b s e r v a d o r p a s á n d o l e un
parámetro g e n é r i c o
∗ @param s u b j e c t Se podrá c o r r e s p o n d e r con e l e s t a d o d e l s u j e t o
∗/
public void update (T s u b j e c t ) ;
}
Paquete location C.33: observer/IARObserver.java
observer/IARObservable.java
package com . i v a n l o r e n z o . l o c a t i o n . o b s e r v e r ;
/∗ ∗
∗ I n t e r f a c e g e n é r i c a O b s e r v a b l e d e l p a t r ó n O b s e r v e r qe t e n d r á un c o n j u n t o
de o b s e r v a d o r e s y n o t i f i c a r á a
∗ e s t o s cuando s e p r o d u z c a a l g ú n cambio de e s t a d o
∗ @author Iván Lorenzo Rubio
∗
∗ @param <T> El o b s e r v a d o r
∗/
public i n t e r f a c e IARObservable<T>
{
/∗ ∗
∗ Método que a ñade un o b s e r v a d o r a l a l i s t a
∗ @param o b s e r v e r Observador a a ñ a d i r
∗/
332
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
public void addObserver ( IARObserver<T> o b s e r v e r ) ;
/∗ ∗
∗ Borra un o b s e r v a d o r de l a l i s t a
∗ @param o b s e r v e r Observador a b o r r a r
∗/
public void removeObserver ( IARObserver<T> o b s e r v e r ) ;
/∗ ∗
∗ Cuando s e p r o d u z c a un cambio en é l , n o t i f i c a r á a t o d o s l o s
o b s e r v a d o r e s a t r a v é s de e s t e método
∗/
public void n o t i f y O b s e r v e r s ( ) ;
}
Paquete location C.34: observer/IARObservable.java
observer/ARObservable.java
package com . i v a n l o r e n z o . l o c a t i o n . o b s e r v e r ;
import j a v a . u t i l . A r r a y L i s t ;
import j a v a . u t i l . L i s t ;
/∗ ∗
∗ C l a s e a b s t r a c t a que implementa l a i n t e r f a c e IARObservable<T>. Contiene
un e l e m e n t o g e n é r i c o y una l i s t a de
∗ o b s e r v a d o r e s g e n é r i c o s
∗ @author Iván Lorenzo Rubio
∗
∗ @param <T> El o b s e r v a d o r
∗/
public abstract c l a s s ARObservable<T> implements IARObservable<T>
{
/∗ ∗
∗ Elemento g e n é r i c o
∗/
protected T data ;
/∗ ∗
∗ L i s t a de o b s e r v a d o r e s g e n é r i c o s
∗/
protected L i s t <IARObserver<T>> o b s e r v e r s = new A r r a y L i s t <
IARObserver<T>>() ;
@Override
public void addObserver ( IARObserver<T> o b s e r v e r )
{
o b s e r v e r s . add ( o b s e r v e r ) ;
}
@Override
public void removeObserver ( IARObserver<T> o b s e r v e r )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
333
C. Código Fuente
{
o b s e r v e r s . remove ( o b s e r v e r ) ;
}
@Override
public void n o t i f y O b s e r v e r s ( )
{
f o r ( IARObserver<T> o b s e r v e r : o b s e r v e r s )
o b s e r v e r . update ( data ) ;
}
}
Paquete location C.35: observer/ARObservable.java
C.4.7.
Paquete com.ivanlorenzo.parser
IParser.java
package com . i v a n l o r e n z o . p a r s e r ;
import min3d . a n i m a t i o n . AnimationObject3d ;
import min3d . c o r e . O b j e c t 3 d C o n t a i n e r ;
/∗ ∗
∗ I n t e r f a c e para l o s p a r s e r s de o b j e t o s 3D basada en min3d
∗ @author Iván Lorenzo Rubio
∗/
public i n t e r f a c e I P a r s e r {
/∗ ∗
∗ Empieza a p a r s e a r e l o b j e t o 3d
∗/
public void p a r s e ( ) ;
/∗ ∗
∗ Devuelve e l o b j e t o parseado
∗ @return El o b j e t o p a r s e a d o
∗/
public O b j e c t 3 d C o n t a i n e r g e t P a r s e d O b j e c t ( ) ;
/∗ ∗
∗ D e v u e l v e e l o b j e t o animado p a r s e a d o
∗ @return El o b j e t o animado
∗/
public AnimationObject3d g e t P a r s e d A n i m a t i o n O b j e c t ( ) ;
}
Paquete parser C.36: IParser.java
AParser.java
package com . i v a n l o r e n z o . p a r s e r ;
334
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
import
import
import
import
import
import
import
j a v a . i o . IOException ;
j a v a . i o . InputStream ;
j a v a . n e t .URL;
java . u t i l . ArrayList ;
java . u t i l . C o l l e c t i o n s ;
j a v a . u t i l . Comparator ;
j a v a . u t i l . HashMap ;
import
import
import
import
import
import
import
import
import
import
import
import
import
min3d . Min3d ;
min3d . Shared ;
min3d . U t i l s ;
min3d . a n i m a t i o n . AnimationObject3d ;
min3d . c o r e . O b j e c t 3 d C o n t a i n e r ;
com . i v a n l o r e n z o . p a r s e r . ParseObjectData ;
min3d . vos . C o l o r 4 ;
min3d . vos . Number3d ;
min3d . vos . Uv ;
android . content . r e s . Resources ;
a n d r o i d . g r a p h i c s . Bitmap ;
a n d r o i d . g r a p h i c s . Bitmap . C o n f i g ;
a n d r o i d . u t i l . Log ;
/∗ ∗
∗ C l a s e a b s t r a c t a P a r se r con l a f u n c i o n a l i d a d b á s i c a d e l p r o c e s o de p a r s e o
.
∗
∗ @author Iván Lorenzo Rubio
∗
∗/
public abstract c l a s s AParser implements I P a r s e r {
protected
protected
protected
protected
protected
protected
protected
protected
protected
protected
protected
protected
protected
protected
Resources r e s o u r c e s ;
String resourceID ;
S t r i n g packageID ;
String currentMaterialKey ;
A r r a y L i s t <ParseObjectData> p a r s e O b j e c t s ;
ParseObjectData co ;
boolean f i r s t O b j e c t ;
TextureAtlas textureAtlas ;
A r r a y L i s t <Number3d> v e r t i c e s ;
A r r a y L i s t <Uv> texCoords ;
A r r a y L i s t <Number3d> normals ;
boolean generateMipMap ;
HashMap<S t r i n g , M a t e r i a l > materialMap ;
InputStream f i l e I n ;
protected boolean r e m o t e L o c a t i o n ;
protected S t r i n g u r l ;
/∗ ∗
∗ C o n s t r u c t o r b á s i c o
∗/
public AParser ( )
{
v e r t i c e s = new A r r a y L i s t <Number3d >() ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
335
C. Código Fuente
texCoords = new A r r a y L i s t <Uv>() ;
normals = new A r r a y L i s t <Number3d >() ;
p a r s e O b j e c t s = new A r r a y L i s t <ParseObjectData >() ;
t e x t u r e A t l a s = new T e x t u r e A t l a s ( ) ;
f i r s t O b j e c t = true ;
materialMap = new HashMap<S t r i n g , M a t e r i a l >() ;
}
/∗ ∗
∗ C o n s t r u c t o r en e l que s e l e pasa l a d i r e c c i ó n u r l d e l o b j e t o a
parsear
∗ @param u r l D i r e c c i ó n d e l o b j e t o a p a r s e a r
∗/
public AParser ( S t r i n g u r l )
{
this ( ) ;
t h i s . r e m o t e L o c a t i o n = true ;
t h i s . packageID = "" ;
this . u r l = u r l ;
try {
f i l e I n = new URL( u r l ) . openConnection ( ) .
getInputStream ( ) ;
} catch ( IOException e )
{
e . printStackTrace () ;
}
}
/∗ ∗
∗ C o n s t r u c t o r d e l p a r s e r que r e c i b e e l r e c u r s o e s p e cı́ f i c o
∗ @param r e s o u r c e s Los r e c u r s o s de l a a p l i c a c i ó n
∗ @param r e s o u r c e I D El i d e n t i f i c a d o r d e l r e c u r s o a c a r g a r
∗ @param generateMipMap
∗/
public AParser ( R e s o u r c e s r e s o u r c e s , S t r i n g r e s o u r c e I D , Boolean
generateMipMap )
{
this ( ) ;
this . r e s o u r c e s = r e s o u r c e s ;
this . resourceID = resourceID ;
i f ( r e s o u r c e I D . indexOf ( ":" ) > −1)
t h i s . packageID = r e s o u r c e I D . s p l i t ( ":" ) [ 0 ] ;
t h i s . generateMipMap = generateMipMap ;
f i l e I n = r e s o u r c e s . openRawResource ( r e s o u r c e s . g e t I d e n t i f i e r (
r e s o u r c e I D , null , null ) ) ;
}
/∗ ∗
∗ Borra t o d a s l a s e s t r u c t u r a s de d a t o s
∗/
protected void c l e a n u p ( )
{
parseObjects . clear () ;
textureAtlas . cleanup () ;
vertices . clear () ;
texCoords . c l e a r ( ) ;
336
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
normals . c l e a r ( ) ;
}
/∗ ∗
∗ D e v u e l v e e l o b j e t o p a r s e a d o . Será s o b r e e s c r i t o en e l p a r s e a d o r
concreto .
∗/
public O b j e c t 3 d C o n t a i n e r g e t P a r s e d O b j e c t ( ) {
return null ;
}
/∗ ∗
∗ D e v u e l v e e l o b j e t o animado p a r s e a d o . Será s o b r e e s c r i t o en e l
parseador concreto .
∗/
public AnimationObject3d g e t P a r s e d A n i m a t i o n O b j e c t ( ) {
return null ;
}
/∗ ∗
∗ Lee una cadena de c a r a c t e r e s de un InputStream
∗ @param stream F l u j o de b y t e s a l e e r
∗ @return El s t r i n g l eı́ d o
∗ @throws IOException En c a s o de que s e p r o d u z c a a l g u n a e x c e p c i ó n
∗/
protected S t r i n g r e a d S t r i n g ( InputStream stream ) throws IOException
{
S t r i n g r e s u l t = new S t r i n g ( ) ;
byte i nB yt e ;
while ( ( i nB y te = ( byte ) stream . r e a d ( ) ) != 0 )
r e s u l t += ( char ) i nB y te ;
return r e s u l t ;
}
/∗ ∗
∗ Lee un e n t e r o de un InputStream
∗ @param stream F l u j o de b y t e s a l e e r
∗ @return El e n t e r o l eı́ d o
∗ @throws IOException En c a s o de que s e p r o d u z c a a l g u n a e x c e p c i ó n
∗/
protected int r e a d I n t ( InputStream stream ) throws IOException {
return stream . r e a d ( ) | ( stream . r e a d ( ) << 8 ) | ( stream . r e a d
( ) << 1 6 )
| ( stream . r e a d ( ) << 2 4 ) ;
}
/∗ ∗
∗ Lee un s h o r t de c a r a c t e r e s de un InputStream
∗ @param stream F l u j o de b y t e s a l e e r
∗ @return El s h o r t l eı́ d o
∗ @throws IOException En c a s o de que s e p r o d u z c a a l g u n a e x c e p c i ó n
∗/
protected int r e a d S h o r t ( InputStream stream ) throws IOException {
return ( stream . r e a d ( ) | ( stream . r e a d ( ) << 8 ) ) ;
}
Plataforma educativa basada en realidad aumentada y dispositivos móviles
337
C. Código Fuente
/∗ ∗
∗ Lee un número f l o t a n t e de c a r a c t e r e s de un InputStream
∗ @param stream F l u j o de b y t e s a l e e r
∗ @return El f l o a t l eı́ d o
∗ @throws IOException En c a s o de que s e p r o d u z c a a l g u n a e x c e p c i ó n
∗/
protected f l o a t r e a d F l o a t ( InputStream stream ) throws IOException {
return F l o a t . i n t B i t s T o F l o a t ( r e a d I n t ( stream ) ) ;
}
/∗ ∗
∗ R e a l i z a e l p a r s e o d e l o b j e t o . Se s o b r e e s c r i b e en e l p a r s e a d o r
concreto
∗/
public void p a r s e ( ) {
}
/∗ ∗
∗ Contiene i n f o r m a c i ó n s o b r e l a t e x t u r a .
∗
∗ @author Iván Lorenzo Rubio
∗
∗/
protected c l a s s BitmapAsset
{
/∗ ∗
∗ El bitmap de l a t e x t u r a
∗/
public Bitmap bitmap ;
/∗ ∗
∗ El i d e n t i f i c a d o r de l a t e x t u r a
∗/
public S t r i n g key ;
/∗ ∗
∗ ID d e l r e c u r s o
∗/
public S t r i n g r e s o u r c e I D ;
/∗ ∗
∗ U−c o o r d i n a t e o f f s e t
∗/
public f l o a t u O f f s e t ;
/∗ ∗
∗ V−c o o r d i n a t e o f f s e t
∗/
public f l o a t v O f f s e t ;
/∗ ∗
∗ U−c o o r d i n a t e s c a l i n g v a l u e
∗/
public f l o a t u S c a l e ;
/∗ ∗
∗ V−c o o r d i n a t e s c a l i n g v a l u e
338
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
∗/
public f l o a t v S c a l e ;
public boolean u s e F o r A t l a s D i m e n s i o n s ;
/∗ ∗
∗ Crear un o b j e t o BitmapAsset
∗ @param key I d e n t i f i c a d o r de l a t e x t u r a
∗ @param r e s o u r c e I D I d e n t i f i c a d o r d e l r e c u r s o
∗/
public BitmapAsset ( S t r i n g key , S t r i n g r e s o u r c e I D )
{
t h i s . key = key ;
this . resourceID = resourceID ;
useForAtlasDimensions = false ;
}
}
/∗ ∗
∗ Cuando un modelo c o n t i e n e una t e x t u r a por cara , s e c r e a un
T e x t u r e A l t a s . Ası́
∗ combinamos v a r i a s t e x t u r a s
∗
∗ @author Iván Lorenzo Rubio
∗
∗/
protected c l a s s T e x t u r e A t l a s {
/∗ ∗
∗ El c o n j u n t o de t e x t u r a combinadas en una
∗/
private A r r a y L i s t <BitmapAsset> bitmaps ;
/∗ ∗
∗ El bitmap de l a t e x t u r a
∗/
private Bitmap a t l a s ;
/∗ ∗
∗ Crear una i n s t a n c i a de una T e x t u r e A t l a s
∗/
public T e x t u r e A t l a s ( ) {
bitmaps = new A r r a y L i s t <BitmapAsset >() ;
}
/∗ ∗
∗ Identificador del atlas
∗/
private S t r i n g a t l a s I d ;
/∗ ∗
∗ Añade un BitmapAsset
Plataforma educativa basada en realidad aumentada y dispositivos móviles
339
C. Código Fuente
∗ @param ba
∗/
public void addBitmapAssetRemote ( BitmapAsset ba )
{
bitmaps . add ( ba ) ;
}
/∗ ∗
∗ Añade un bitmap a l a t l a s
∗
∗ @param bitmap Bitmap a ñadido
∗/
public void addBitmapAsset ( BitmapAsset ba ) {
BitmapAsset e x i s t i n g B A = getBitmapAssetByResourceID
( ba . r e s o u r c e I D ) ;
i f ( e x i s t i n g B A == null )
{
int bmResourceID = r e s o u r c e s . g e t I d e n t i f i e r (
ba . r e s o u r c e I D , null , null ) ;
i f ( bmResourceID == 0 )
{
Log . d ( Min3d .TAG, " Texture not found
: " + ba . r e s o u r c e I D ) ;
return ;
}
Log . d ( Min3d .TAG, " Adding texture " + ba .
resourceID ) ;
Bitmap b = U t i l s . makeBitmapFromResourceId (
bmResourceID ) ;
ba . u s e F o r A t l a s D i m e n s i o n s = true ;
ba . bitmap = b ;
}
else
{
ba . bitmap = e x i s t i n g B A . bitmap ;
}
bitmaps . add ( ba ) ;
}
public BitmapAsset getBitmapAssetByResourceID ( S t r i n g
resourceID )
{
int numBitmaps = bitmaps . s i z e ( ) ;
f o r ( int i =0; i <numBitmaps ; i ++)
{
i f ( bitmaps . g e t ( i ) . r e s o u r c e I D . e q u a l s (
resourceID ) )
return bitmaps . g e t ( i ) ;
}
return null ;
340
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
}
/∗ ∗
∗ Genera una nueva t e x t u r e A t l a s
∗/
public void g e n e r a t e ( ) {
C o l l e c t i o n s . s o r t ( bitmaps , new BitmapHeightComparer
() ) ;
i f ( bitmaps . s i z e ( ) == 0 ) return ;
BitmapAsset l a r g e s t B i t m a p = bitmaps . g e t ( 0 ) ;
int t o t a l W i d t h = 0 ;
int numBitmaps = bitmaps . s i z e ( ) ;
int u O f f s e t = 0 ;
int v O f f s e t = 0 ;
f o r ( int i = 0 ; i < numBitmaps ; i ++) {
i f ( bitmaps . g e t ( i ) . u s e F o r A t l a s D i m e n s i o n s )
t o t a l W i d t h += bitmaps . g e t ( i ) . bitmap
. getWidth ( ) ;
}
a t l a s = Bitmap . c r e a t e B i t m a p ( totalWidth ,
l a r g e s t B i t m a p . bitmap
. g e t H e i g h t ( ) , C o n f i g . ARGB 8888 ) ;
f o r ( int i = 0 ; i < numBitmaps ; i ++) {
BitmapAsset ba = bitmaps . g e t ( i ) ;
BitmapAsset e x i s t i n g B A =
getBitmapAssetByResourceID ( ba . r e s o u r c e I D
);
i f ( ba . u s e F o r A t l a s D i m e n s i o n s )
{
Bitmap b = ba . bitmap ;
int w = b . getWidth ( ) ;
int h = b . g e t H e i g h t ( ) ;
int [ ] p i x e l s = new int [ w ∗ h ] ;
b . g e t P i x e l s ( p i x e l s , 0 , w, 0 , 0 , w,
h) ;
a t l a s . s e t P i x e l s ( p i x e l s , 0 , w,
u O f f s e t , v O f f s e t , w, h ) ;
ba . u O f f s e t = ( f l o a t ) u O f f s e t /
totalWidth ;
ba . v O f f s e t = 0 ;
ba . u S c a l e = ( f l o a t ) w / ( f l o a t )
totalWidth ;
ba . v S c a l e = ( f l o a t ) h / ( f l o a t )
l a r g e s t B i t m a p . bitmap . g e t H e i g h t ( )
;
u O f f s e t += w ;
b. recycle () ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
341
C. Código Fuente
}
else
{
ba . u O f f s e t = e x i s t i n g B A . u O f f s e t ;
ba . v O f f s e t = e x i s t i n g B A . v O f f s e t ;
ba . u S c a l e = e x i s t i n g B A . u S c a l e ;
ba . v S c a l e = e x i s t i n g B A . v S c a l e ;
}
}
/∗
FileOutputStream f o s ;
try {
f o s = new F i l e O u t p u t S t r e a m (”/ d a t a /
s c r e e n s h o t . png ”) ;
a t l a s . compress ( Bitmap . CompressFormat .PNG,
100 , f o s ) ;
fos . flush () ;
fos . close () ;
} catch ( FileNotFoundException e ) {
e . printStackTrace () ;
} c a t c h ( IOException e ) {
e . printStackTrace () ;
}
∗/
s e t I d ( Shared . textureManager ( ) . getNewAtlasId ( ) ) ;
}
/∗ ∗
∗ Devuelve l a t e x t u r a generada
∗
∗ @return El a t l a s g e n e r a d o
∗/
public Bitmap getBitmap ( ) {
return a t l a s ;
}
/∗ ∗
∗ Nos i n d i c a s i e l t e x t u r e A t l a s t i e n e a l g ú n bitmap
∗
∗ @return Verdadero s i t i e n e a l g ú n bitmap , f a l s o en c a s o
contrario
∗/
public boolean hasBitmaps ( ) {
return bitmaps . s i z e ( ) > 0 ;
}
/∗ ∗
∗ D e v u e l v e un bitmap con una t e x t u r a de t er mi n ad a
∗
∗ @param m a t e r i a l K e y El nombre de l a t e x t u r a
∗ @return El bitmap d e v u e l t o
∗/
public BitmapAsset getBitmapAssetByName ( S t r i n g m a t e r i a l K e y )
{
342
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
int numBitmaps = bitmaps . s i z e ( ) ;
f o r ( int i = 0 ; i < numBitmaps ; i ++) {
i f ( bitmaps . g e t ( i ) . key . e q u a l s ( m a t e r i a l K e y ) )
return bitmaps . g e t ( i ) ;
}
return null ;
}
public void c l e a n u p ( )
{
int numBitmaps = bitmaps . s i z e ( ) ;
f o r ( int i = 0 ; i < numBitmaps ; i ++) {
bitmaps . g e t ( i ) . bitmap . r e c y c l e ( ) ;
}
i f ( a t l a s != null ) a t l a s . r e c y c l e ( ) ;
bitmaps . c l e a r ( ) ;
vertices . clear () ;
texCoords . c l e a r ( ) ;
normals . c l e a r ( ) ;
}
public void s e t I d ( S t r i n g newAtlasId ) {
a t l a s I d = newAtlasId ;
}
public S t r i n g g e t I d ( ) {
return a t l a s I d ;
}
/∗ ∗
∗ C l a s e que compara e l p e s o de dos b i t m a p s
∗
∗ @author Iván Lorenzo Rubio
∗
∗/
private c l a s s BitmapHeightComparer implements Comparator<
BitmapAsset>
{
public int compare ( BitmapAsset b1 , BitmapAsset b2 )
{
int h e i g h t 1 = b1 . bitmap . g e t H e i g h t ( ) ;
int h e i g h t 2 = b2 . bitmap . g e t H e i g h t ( ) ;
i f ( height1 < height2 ) {
return 1 ;
} e l s e i f ( h e i g h t 1 == h e i g h t 2 ) {
return 0 ;
} else {
return −1;
}
}
Plataforma educativa basada en realidad aumentada y dispositivos móviles
343
C. Código Fuente
}
}
/∗ ∗
∗ C l a s e que r e p r e s e n t a un m a t e r i a l para una t e x t u r a
∗ @author Iván Lorenzo Rubio
∗
∗/
protected c l a s s M a t e r i a l
{
public S t r i n g name ;
public S t r i n g d i f f u s e T e x t u r e M a p ;
public C o l o r 4 d i f f u s e C o l o r ;
public M a t e r i a l ( S t r i n g name ) {
t h i s . name = name ;
}
}
}
Paquete parser C.37: AParser.java
Parser.java
package com . i v a n l o r e n z o . p a r s e r ;
import a n d r o i d . c o n t e n t . r e s . R e s o u r c e s ;
/∗ ∗
∗ C l a s e f a c t o rı́ a de P a r s e r s . E s p e c i f i c a e l t i p o de p a r s e r y d e v u e l v e l a
c l a s e e s p e c i a l i z a d a de p a r s e r .
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s P a r s e r {
/∗ ∗
∗ Enumeración de l o s t i p o s de p a r s e r s de l a a p l i c a c i ó n
∗ @author Iván Lorenzo Rubio
∗/
public s t a t i c enum Type
{
OBJ,
MAX 3DS,
MD2
};
/∗ ∗
∗ Crea un p a r s e r de un t i p o de te r mi na do
∗ @param t y p e Tipo de p a r s e r
∗ @param r e s o u r c e s Recursos de l a a p l i c a c i ó n
∗ @param r e s o u r c e I D I d e n t i f i c a d o r d e l r e c u r s o
∗ @param generateMipMap
344
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
∗ @return P a r se r d e l t i p o c o r r e s p o n d i e n t e
∗/
public s t a t i c I P a r s e r c r e a t e P a r s e r ( Type type , R e s o u r c e s r e s o u r c e s ,
S t r i n g r e s o u r c e I D , boolean generateMipMap )
{
switch ( type )
{
case OBJ :
return new ObjParser ( r e s o u r c e s , r e s o u r c e I D ,
generateMipMap ) ;
case MAX 3DS :
return new Max3DSParser ( r e s o u r c e s ,
r e s o u r c e I D , generateMipMap ) ;
case MD2:
return new MD2Parser ( r e s o u r c e s , r e s o u r c e I D ,
generateMipMap ) ;
}
return null ;
}
/∗ ∗
∗ Crea un p a r s e r de un t i p o de te r mi na do
∗ @param t y p e Tipo de p a r s e r
∗ @param u r l La d i r e c c i ó n u r l d e l o b j e t o
∗ @param t e x t u r e La d i r e c c i ó n de l a t e x t u r a
∗ @return P a r se r d e l t i p o c o r r e s p o n d i e n t e
∗/
public s t a t i c I P a r s e r c r e a t e P a r s e r ( Type type , S t r i n g u r l , S t r i n g
texture )
{
switch ( type )
{
case OBJ :
return new ObjParser ( u r l ) ;
case MAX 3DS :
return new Max3DSParser ( u r l , t e x t u r e ) ;
case MD2:
return new MD2Parser ( u r l ) ;
}
return null ;
}
}
Paquete parser C.38: Parser.java
ParseObjectData.java
package com . i v a n l o r e n z o . p a r s e r ;
import j a v a . u t i l . A r r a y L i s t ;
import j a v a . u t i l . HashMap ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
345
C. Código Fuente
import
import
import
import
import
import
min3d . a n i m a t i o n . AnimationObject3d ;
min3d . a n i m a t i o n . KeyFrame ;
min3d . c o r e . Object3d ;
com . i v a n l o r e n z o . p a r s e r . AParser . BitmapAsset ;
com . i v a n l o r e n z o . p a r s e r . AParser . M a t e r i a l ;
com . i v a n l o r e n z o . p a r s e r . AParser . T e x t u r e A t l a s ;
import
import
import
import
import
min3d . p a r s e r . P a r s e O b j e c t F a c e ;
min3d . vos . C o l o r 4 ;
min3d . vos . Face ;
min3d . vos . Number3d ;
min3d . vos . Uv ;
/∗ ∗
∗ C l a s e que c o n t i e n e l a i n f o r m a c i ó n de un o b j e t o p a r s e a d o
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s ParseObjectData {
/∗ ∗
∗ Caras d e l o b j e t o
∗/
protected A r r a y L i s t <ParseObjectFace > f a c e s ;
/∗ ∗
∗ Número de c a r a s
∗/
protected int numFaces = 0 ;
/∗ ∗
∗ V é r t i c e s d e l o b j e t o
∗/
protected A r r a y L i s t <Number3d> v e r t i c e s ;
/∗ ∗
∗ Coordenadas de l a s t e x t u r a s d e l o b j e t o
∗/
protected A r r a y L i s t <Uv> texCoords ;
/∗ ∗
∗ Las normales d e l o b j e t o
∗/
protected A r r a y L i s t <Number3d> normals ;
/∗ ∗
∗ Nombre d e l o b j e t o
∗/
public S t r i n g name ;
/∗ ∗
∗ C o n s t r u c t o r s i n pa rám et ros
∗/
public ParseObjectData ( )
346
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
{
t h i s . v e r t i c e s = new A r r a y L i s t <Number3d >() ;
t h i s . texCoords = new A r r a y L i s t <Uv>() ;
t h i s . normals = new A r r a y L i s t <Number3d >() ;
t h i s . name = "" ;
f a c e s = new A r r a y L i s t <ParseObjectFace >() ;
}
/∗ ∗
∗ C o n s t r u c t o r que i n i c i a l i z a un o b j e t o p a r s e a d o
∗ @param v e r t i c e s A r r a y L i s t con l o s v é r t i c e s
∗ @param t e x C o o r d s A r r a y L i s t con l a s c o o r d e n a d a s de l a s t e x t u r a s
∗ @param normals A r r a y L i s t con l a s normales d e l o b j e t o
∗/
public ParseObjectData ( A r r a y L i s t <Number3d> v e r t i c e s , A r r a y L i s t <Uv>
texCoords , A r r a y L i s t <Number3d> normals )
{
this . v e r t i c e s = v e r t i c e s ;
t h i s . texCoords = texCoords ;
t h i s . normals = normals ;
t h i s . name = "" ;
f a c e s = new A r r a y L i s t <ParseObjectFace >() ;
}
/∗ ∗
∗ D e v u e l v e un o b j e t o AnimationObject3d p a r s e a d o
∗ @param t e x t u r e A t l a s
∗ @param materialMap
∗ @param frames
∗ @return O b j e t o AnimationObject3d p a r s e a d o
∗/
public AnimationObject3d g e t P a r s e d O b j e c t ( T e x t u r e A t l a s t e x t u r e A t l a s ,
HashMap<S t r i n g , M a t e r i a l > materialMap , KeyFrame [ ] f r a m e s )
{
AnimationObject3d o b j = new AnimationObject3d ( numFaces ∗ 3 ,
numFaces , f r a m e s . l e n g t h ) ;
o b j . name ( name ) ;
o b j . setFrames ( f r a m e s ) ;
p a r s e O b j e c t ( obj , materialMap , t e x t u r e A t l a s ) ;
return o b j ;
}
/∗ ∗
∗ D e v u e l v e un O b j e c t 3 d p a r s e a d o
∗ @param materialMap
∗ @param t e x t u r e A t l a s
∗ @return O b j e t o O b j e c t 3 d p a r s e a d o
∗/
public Object3d g e t P a r s e d O b j e c t ( HashMap<S t r i n g , M a t e r i a l >
materialMap , T e x t u r e A t l a s t e x t u r e A t l a s ) {
Object3d o b j = new Object3d ( numFaces ∗ 3 , numFaces ) ;
o b j . name ( name ) ;
p a r s e O b j e c t ( obj , materialMap , t e x t u r e A t l a s ) ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
347
C. Código Fuente
return o b j ;
}
/∗ ∗
∗ Parsea un o b j e t o
∗ @param o b j
∗ @param materialMap
∗ @param t e x t u r e A t l a s
∗/
private void p a r s e O b j e c t ( Object3d obj , HashMap<S t r i n g , M a t e r i a l >
materialMap , T e x t u r e A t l a s t e x t u r e A t l a s )
{
int numFaces = f a c e s . s i z e ( ) ;
int f a c e I n d e x = 0 ;
boolean hasBitmaps = t e x t u r e A t l a s . hasBitmaps ( ) ;
f o r ( int i = 0 ; i < numFaces ; i ++) {
ParseObjectFace f a c e = f a c e s . get ( i ) ;
BitmapAsset ba = t e x t u r e A t l a s
. getBitmapAssetByName ( f a c e .
materialKey ) ;
f o r ( int j = 0 ; j < f a c e . f a c e L e n g t h ; j ++) {
Number3d newVertex = v e r t i c e s . g e t ( f a c e . v [ j
]) ;
Uv newUv = f a c e . hasuv ? texCoords . g e t ( f a c e .
uv [ j ] ) . c l o n e ( )
: new Uv ( ) ;
Number3d newNormal = f a c e . hasn ? normals .
get ( face . n [ j ] )
: new Number3d ( ) ;
M a t e r i a l m a t e r i a l = materialMap . g e t ( f a c e .
materialKey ) ;
C o l o r 4 newColor = new C o l o r 4 ( 2 5 5 , 2 5 5 , 0 ,
255) ;
i f ( m a t e r i a l != null && m a t e r i a l .
d i f f u s e C o l o r != null )
{
newColor . r = m a t e r i a l . d i f f u s e C o l o r
r;
newColor . g = m a t e r i a l . d i f f u s e C o l o r
g;
newColor . b = m a t e r i a l . d i f f u s e C o l o r
b;
newColor . a = m a t e r i a l . d i f f u s e C o l o r
a;
}
.
.
.
.
i f ( hasBitmaps && ( ba != null ) )
{
newUv . u = ba . u O f f s e t + newUv . u ∗ ba
. uScale ;
348
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
newUv . v = ba . v O f f s e t + ( ( newUv . v +
1 ) ∗ ba . v S c a l e ) − 1 ;
}
o b j . v e r t i c e s ( ) . addVertex ( newVertex , newUv ,
newNormal , newColor ) ;
}
i f ( f a c e . f a c e L e n g t h == 3 ) {
o b j . f a c e s ( ) . add (
new Face ( f a c e I n d e x ,
faceIndex + 1 , faceIndex
+ 2) ) ;
} e l s e i f ( f a c e . f a c e L e n g t h == 4 ) {
o b j . f a c e s ( ) . add (
new Face ( f a c e I n d e x ,
faceIndex + 1 , faceIndex
+ 3) ) ;
o b j . f a c e s ( ) . add (
new Face ( f a c e I n d e x + 1 ,
faceIndex + 2 , faceIndex
+ 3) ) ;
}
f a c e I n d e x += f a c e . f a c e L e n g t h ;
}
i f ( hasBitmaps ) {
o b j . t e x t u r e s ( ) . addById ( t e x t u r e A t l a s . g e t I d ( ) ) ;
}
cleanup ( ) ;
}
/∗ ∗
∗ C a l c u l a l a normal de un o b j e t o
∗ @param f a c e
∗/
public void c a l c u l a t e F a c e N o r m a l ( P a r s e O b j e c t F a c e f a c e )
{
Number3d v1 = v e r t i c e s . g e t ( f a c e . v [ 0 ] ) ;
Number3d v2 = v e r t i c e s . g e t ( f a c e . v [ 1 ] ) ;
Number3d v3 = v e r t i c e s . g e t ( f a c e . v [ 2 ] ) ;
Number3d v e c t o r 1 = Number3d . s u b t r a c t ( v2 , v1 ) ;
Number3d v e c t o r 2 = Number3d . s u b t r a c t ( v3 , v1 ) ;
Number3d
normal . x
);
normal . y
. z)) ;
normal . z
);
normal = new Number3d ( ) ;
= ( vector1 . y ∗ vector2 . z ) − ( vector1 . z ∗ vector2 . y
= −(( v e c t o r 2 . z ∗ v e c t o r 1 . x ) − ( v e c t o r 2 . x ∗ v e c t o r 1
= ( vector1 . x ∗ vector2 . y) − ( vector1 . y ∗ vector2 . x
double normFactor = Math . s q r t ( ( normal . x ∗ normal . x ) + (
normal . y ∗ normal . y ) + ( normal . z ∗ normal . z ) ) ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
349
C. Código Fuente
normal . x /= normFactor ;
normal . y /= normFactor ;
normal . z /= normFactor ;
normals . add ( normal ) ;
int i n d e x = normals . s i z e ( ) − 1 ;
f a c e . n = new int [ 3 ] ;
f a c e . n [ 0 ] = index ;
f a c e . n [ 1 ] = index ;
f a c e . n [ 2 ] = index ;
f a c e . hasn = true ;
}
/∗ ∗
∗ Borra l a s c a r a s
∗/
protected void c l e a n u p ( ) {
faces . clear () ;
}
}
Paquete parser C.39: ParseObjectData.java
Max3DSParser.java
package com . i v a n l o r e n z o . p a r s e r ;
import
import
import
import
java . i o . BufferedInputStream ;
j a v a . i o . IOException ;
j a v a . i o . InputStream ;
j a v a . n e t .URL;
import
import
import
import
import
import
import
import
import
import
min3d . Min3d ;
min3d . Shared ;
min3d . c o r e . O b j e c t 3 d C o n t a i n e r ;
min3d . p a r s e r . P a r s e O b j e c t F a c e ;
min3d . vos . Number3d ;
min3d . vos . Uv ;
android . content . r e s . Resources ;
a n d r o i d . g r a p h i c s . Bitmap ;
a n d r o i d . g r a p h i c s . BitmapFactory ;
a n d r o i d . u t i l . Log ;
/∗ ∗
∗ P a rs e r e s p e cı́ f i c o para l o s o b j e t o s Max3DS
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s Max3DSParser extends AParser implements I P a r s e r {
private f i n a l int IDENTIFIER 3DS = 0x4D4D ;
private f i n a l int MESH BLOCK = 0x3D3D ;
private f i n a l int OBJECT BLOCK = 0 x4000 ;
350
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
private
private
private
private
private
private
private
private
private
final
final
final
final
final
final
final
final
final
int
int
int
int
int
int
int
int
int
TRIMESH = 0 x4100 ;
TRI MATERIAL = 0 x4130 ;
VERTICES = 0 x4110 ;
FACES = 0 x4120 ;
TEXCOORD = 0 x4140 ;
TEX MAP = 0xA200 ;
TEX NAME = 0xA000 ;
TEX FILENAME = 0xA300 ;
MATERIAL = 0xAFFF ;
private
private
private
private
int chunkID ;
int chunkEndOffset ;
boolean endReached ;
S t r i n g currentObjName ;
private S t r i n g t e x t u r e ;
/∗ ∗
∗ Constructor del parser
∗ @param r e s o u r c e s Recursos de l a a p l i c a c i ó n
∗ @param r e s o u r c e I D I d e n t i f i c a d o r d e l r e c u r s o
∗ @param generateMipMap
∗/
public Max3DSParser ( R e s o u r c e s r e s o u r c e s , S t r i n g r e s o u r c e I D , boolean
generateMipMap ) {
super ( r e s o u r c e s , r e s o u r c e I D , generateMipMap ) ;
}
/∗ ∗
∗ C o n s t r u c t o r de l a c l a s e en e l que s e l e pasa l a d i r e c c i ó n d e l
objeto y la textura
∗ @param u r l
∗ @param t e x t u r e
∗/
public Max3DSParser ( S t r i n g u r l , S t r i n g t e x t u r e )
{
super ( u r l ) ;
this . texture = texture ;
}
@Override
public void p a r s e ( )
{
B u f f e r e d I n p u t S t r e a m stream = new B u f f e r e d I n p u t S t r e a m ( f i l e I n
);
Log . d ( Min3d .TAG, " Start parsing object " ) ;
co = new ParseObjectData ( ) ;
p a r s e O b j e c t s . add ( co ) ;
try {
Plataforma educativa basada en realidad aumentada y dispositivos móviles
351
C. Código Fuente
readHeader ( stream ) ;
i f ( chunkID != IDENTIFIER 3DS )
{
Log . d ( Min3d .TAG, "Not a valid .3 DS file!" ) ;
return ;
}
else
{
Log . d ( Min3d .TAG, " Found a valid .3 DS file" )
;
}
while ( ! endReached )
{
readChunk ( stream ) ;
}
} catch ( IOException e ) {
e . printStackTrace () ;
}
Log . d ( Min3d .TAG, "End parsing object " ) ;
}
/∗ ∗
∗ Lee l a c a b e c e r a d e l f i c h e r o 3 ds
∗ @param stream Stream con l o s d a t o s a l e e r
∗ @throws IOException
∗/
private void readHeader ( InputStream stream ) throws IOException {
chunkID = r e a d S h o r t ( stream ) ;
chunkEndOffset = r e a d I n t ( stream ) ;
endReached = chunkID < 0 ;
}
/∗ ∗
∗ Lee un pedazo d e l f i c h e r o
∗ @param stream Stream con l o s d a t o s a l e e r
∗ @throws IOException
∗/
private void readChunk ( InputStream stream ) throws IOException {
readHeader ( stream ) ;
switch ( chunkID ) {
case MESH BLOCK:
break ;
case OBJECT BLOCK:
currentObjName = r e a d S t r i n g ( stream ) ;
Log . d ( Min3d .TAG, " Parsing object " + currentObjName
);
break ;
case TRIMESH:
if ( firstObject )
{
co . name = currentObjName ;
firstObject = false ;
}
352
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
else
{
co = new ParseObjectData ( ) ;
co . name = currentObjName ;
p a r s e O b j e c t s . add ( co ) ;
case
case
case
case
case
}
break ;
VERTICES :
r e a d V e r t i c e s ( stream ) ;
break ;
FACES :
r e a d F a c e s ( stream ) ;
break ;
TEXCOORD:
readTexCoords ( stream ) ;
break ;
TEX NAME:
c u r r e n t M a t e r i a l K e y = r e a d S t r i n g ( stream ) ;
break ;
TEX FILENAME :
r e a d T e x t u r e ( stream ) ;
break ;
case TRI MATERIAL :
S t r i n g materialName = r e a d S t r i n g ( stream ) ;
int numFaces = r e a d S h o r t ( stream ) ;
f o r ( int i =0; i <numFaces ; i ++)
{
int f a c e I n d e x = r e a d S h o r t ( stream ) ;
co . f a c e s . g e t ( f a c e I n d e x ) . m a t e r i a l K e y =
materialName ;
}
break ;
case MATERIAL:
break ;
case TEX MAP:
break ;
default :
skipRead ( stream ) ;
}
}
/∗ ∗
∗ Finaliza la lectura del fichero
∗ @param stream Stream con l o s d a t o s a l e e r
∗ @throws IOException
∗/
private void skipRead ( InputStream stream ) throws IOException
{
f o r ( int i =0; ( i <chunkEndOffset − 6 ) && ! endReached ; i ++)
{
endReached = stream . r e a d ( ) < 0 ;
}
}
Plataforma educativa basada en realidad aumentada y dispositivos móviles
353
C. Código Fuente
/∗ ∗
∗ Lee l o s v é r t i c e s d e l f i c h e r o 3 ds
∗ @param b u f f e r Stream con l o s d a t o s a l e e r
∗ @throws IOException
∗/
private void r e a d V e r t i c e s ( InputStream b u f f e r ) throws IOException {
f l o a t x , y , z , tmpy ;
int numVertices = r e a d S h o r t ( b u f f e r ) ;
f o r ( int i = 0 ; i < numVertices ; i ++) {
x = readFloat ( buffer ) ;
y = readFloat ( buffer ) ;
z = readFloat ( buffer ) ;
tmpy = y ;
y = z;
z = −tmpy ;
co . v e r t i c e s . add (new Number3d ( x , y , z ) ) ;
}
}
/∗ ∗
∗ Lee l a s c a r a s d e l f i c h e r o 3 ds
∗ @param b u f f e r Stream con l o s d a t o s a l e e r
∗ @throws IOException
∗/
private void r e a d F a c e s ( InputStream b u f f e r ) throws IOException {
int t r i a n g l e s = r e a d S h o r t ( b u f f e r ) ;
f o r ( int i = 0 ; i < t r i a n g l e s ; i ++) {
int [ ] v e r t e x I D s = new int [ 3 ] ;
vertexIDs [ 0 ] = readShort ( b u f f e r ) ;
vertexIDs [ 1 ] = readShort ( b u f f e r ) ;
vertexIDs [ 2 ] = readShort ( b u f f e r ) ;
readShort ( b u f f e r ) ;
P a r s e O b j e c t F a c e f a c e = new P a r s e O b j e c t F a c e ( ) ;
face . v = vertexIDs ;
f a c e . uv = v e r t e x I D s ;
face . faceLength = 3;
f a c e . hasuv = true ;
co . numFaces++;
co . f a c e s . add ( f a c e ) ;
co . c a l c u l a t e F a c e N o r m a l ( f a c e ) ;
}
}
/∗ ∗
∗ Lee l a s t e x t u r a s d e l f i c h e r o 3 ds
∗ @param b u f f e r Stream con l o s d a t o s a l e e r
∗ @throws IOException
∗/
private void readTexCoords ( InputStream b u f f e r ) throws IOException {
int numVertices = r e a d S h o r t ( b u f f e r ) ;
354
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
f o r ( int i = 0 ; i < numVertices ; i ++) {
Uv uv = new Uv ( ) ;
uv . u = r e a d F l o a t ( b u f f e r ) ;
uv . v = r e a d F l o a t ( b u f f e r ) ∗ −1 f ;
co . texCoords . add ( uv ) ;
}
}
@Override
public O b j e c t 3 d C o n t a i n e r g e t P a r s e d O b j e c t ( )
{
Log . d ( Min3d .TAG, " Start object creation " ) ;
O b j e c t 3 d C o n t a i n e r o b j = new O b j e c t 3 d C o n t a i n e r ( 0 , 0 ) ;
int numObjects = p a r s e O b j e c t s . s i z e ( ) ;
Bitmap t e x t u r e = null ;
i f ( t e x t u r e A t l a s . hasBitmaps ( ) )
{
textureAtlas . generate () ;
t e x t u r e = t e x t u r e A t l a s . getBitmap ( ) ;
Shared . textureManager ( ) . addTextureId ( t e x t u r e ,
t e x t u r e A t l a s . g e t I d ( ) , generateMipMap ) ;
}
f o r ( int i = 0 ; i < numObjects ; i ++) {
ParseObjectData o = p a r s e O b j e c t s . g e t ( i ) ;
Log . d ( Min3d .TAG, " Creating object " + o . name ) ;
o b j . addChild ( o . g e t P a r s e d O b j e c t ( materialMap ,
textureAtlas ) ) ;
}
i f ( t e x t u r e A t l a s . hasBitmaps ( ) )
{
i f ( t e x t u r e != null ) t e x t u r e . r e c y c l e ( ) ;
}
Log . d ( Min3d .TAG, " Object creation finished " ) ;
super . c l e a n u p ( ) ;
return o b j ;
}
/∗ ∗
∗ Lee una t e x t u r a d e l f i c h e r o 3 ds
∗ @param stream Stream con l o s d a t o s a l e e r
∗ @throws IOException
∗/
private void r e a d T e x t u r e ( InputStream stream ) throws IOException
{
S t r i n g f i l e N a m e = r e a d S t r i n g ( stream ) ;
S t r i n g B u f f e r t e x t u r e = new S t r i n g B u f f e r ( packageID ) ;
t e x t u r e . append ( ": drawable /" ) ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
355
C. Código Fuente
S t r i n g B u f f e r textureName = new S t r i n g B u f f e r ( f i l e N a m e .
toLowerCase ( ) ) ;
int d o t I n d e x = textureName . l a s t I n d e x O f ( "." ) ;
i f ( d o t I n d e x > −1)
t e x t u r e . append ( textureName . s u b s t r i n g ( 0 , d o t I n d e x ) ) ;
else
t e x t u r e . append ( textureName ) ;
i f ( ! remoteLocation )
t e x t u r e A t l a s . addBitmapAsset (new BitmapAsset (
currentMaterialKey , texture . toString () ) ) ;
else
{
S t r i n g remoteTexture = getRemoteTexture ( textureName
. toString () ) ;
BitmapAsset baAsset = new BitmapAsset (
currentMaterialKey , texture . toString () ) ;
baAsset . bitmap = BitmapFactory . decodeStream (
new URL(
remoteTexture
)
.
openConnection
() .
getInputStream
() ) ;
baAsset . u s e F o r A t l a s D i m e n s i o n s = true ;
t e x t u r e A t l a s . addBitmapAssetRemote ( baAsset ) ;
}
}
/∗ ∗
∗ Método que d e v u e l v e l a t e x t u r a . S i en l a c o n f i g u r a c i ó n ya
d i s p o n e e x p lı́ c i t a m e n t e de una , s e d e v o l v e r á e s t a ,
∗ en c a s o c o n t r a r i o , s e d e v o l v e r á l a que t i e n e a s o c i a d a e l o b j e t o
3d
∗ @param o b j e c t T e x t u r e El nombre de l a t e x t u r a c o n t e n i d a en e l
f i c h e r o 3d
∗ @return La t e x t u r a remota
∗/
private S t r i n g getRemoteTexture ( S t r i n g o b j e c t T e x t u r e )
{
i f ( ! t e x t u r e . e q u a l s I g n o r e C a s e ( "" ) )
return t e x t u r e ;
S t r i n g remoteTexture = "" ;
int s l a s h I n d e x = u r l . l a s t I n d e x O f ( "/" ) ;
i f ( s l a s h I n d e x > −1)
remoteTexture = u r l . s u b s t r i n g ( 0 , s l a s h I n d e x +1) ;
remoteTexture += o b j e c t T e x t u r e ;
return remoteTexture ;
356
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
}
}
Paquete parser C.40: Max3DSParser.java
MD2Parser.java
package com . i v a n l o r e n z o . p a r s e r ;
import j a v a . i o . B u f f e r e d I n p u t S t r e a m ;
import j a v a . i o . ByteArrayInputStream ;
import j a v a . i o . IOException ;
import j a v a . i o . InputStream ;
import j a v a . n e t .URL;
// im p o r t j a v a . u t i l . A r r a y L i s t ;
import
import
import
import
import
import
import
import
import
import
import
import
min3d . Min3d ;
min3d . Shared ;
min3d . a n i m a t i o n . AnimationObject3d ;
min3d . a n i m a t i o n . KeyFrame ;
min3d . p a r s e r . L i t t l e E n d i a n D a t a I n p u t S t r e a m ;
min3d . p a r s e r . P a r s e O b j e c t F a c e ;
min3d . vos . Number3d ;
min3d . vos . Uv ;
android . content . r e s . Resources ;
a n d r o i d . g r a p h i c s . Bitmap ;
a n d r o i d . g r a p h i c s . BitmapFactory ;
a n d r o i d . u t i l . Log ;
/∗ ∗
∗ P a rs e r e s p e cı́ f i c o de l o s o b j e t o s MD2
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s MD2Parser extends AParser implements I P a r s e r {
private MD2Header h e a d e r ;
private S t r i n g currentTextureName ;
private KeyFrame [ ] f r a m e s ;
/∗ ∗
∗ C o n s t r u c t o r d e l p a r s e r MD2
∗ @param r e s o u r c e s
∗ @param r e s o u r c e I D
∗ @param generateMipMap
∗/
public MD2Parser ( R e s o u r c e s r e s o u r c e s , S t r i n g r e s o u r c e I D , boolean
generateMipMap ) {
super ( r e s o u r c e s , r e s o u r c e I D , generateMipMap ) ;
}
/∗ ∗
Plataforma educativa basada en realidad aumentada y dispositivos móviles
357
C. Código Fuente
∗ C o n s t r u c t o r d e l p a r s e r en e l que s e l e pasa l a d i r e c c i ó n donde
s e e n c o n t r a r á e l o b j e t o a p a r s e a r
∗ @param u r l
∗/
public MD2Parser ( S t r i n g u r l ) {
super ( u r l ) ;
}
@Override
public AnimationObject3d g e t P a r s e d A n i m a t i o n O b j e c t ( ) {
Log . d ( Min3d .TAG, " Start object creation " ) ;
Bitmap t e x t u r e = null ;
AnimationObject3d animObj ;
i f ( t e x t u r e A t l a s . hasBitmaps ( ) ) {
textureAtlas . generate () ;
t e x t u r e = t e x t u r e A t l a s . getBitmap ( ) ;
Shared . textureManager ( ) . addTextureId ( t e x t u r e ,
t e x t u r e A t l a s . g e t I d ( ) , generateMipMap ) ;
}
Log . d ( Min3d .TAG, " Creating object " + co . name ) ;
animObj = co . g e t P a r s e d O b j e c t ( t e x t u r e A t l a s , materialMap ,
frames ) ;
i f ( t e x t u r e A t l a s . hasBitmaps ( ) ) {
i f ( t e x t u r e != null )
texture . recycle () ;
}
Log . d ( Min3d .TAG, " Object creation finished " ) ;
super . c l e a n u p ( ) ;
return animObj ;
}
@Override
public void p a r s e ( ) {
B u f f e r e d I n p u t S t r e a m stream = new B u f f e r e d I n p u t S t r e a m ( f i l e I n
);
co = new ParseObjectData ( ) ;
h e a d e r = new MD2Header ( ) ;
Log . d ( Min3d .TAG, " Start parsing MD2 file" ) ;
try {
h e a d e r . p a r s e ( stream ) ;
f r a m e s = new KeyFrame [ h e a d e r . numFrames ] ;
byte [ ] b y t e s = new byte [ h e a d e r . o f f s e t E n d − 6 8 ] ;
stream . r e a d ( b y t e s ) ;
g e t M a t e r i a l s ( stream , b y t e s ) ;
getTexCoords ( stream , b y t e s ) ;
getFrames ( stream , b y t e s ) ;
g e t T r i a n g l e s ( stream , b y t e s ) ;
} catch ( E x c e p t i o n e ) {
358
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
e . printStackTrace () ;
}
}
private void g e t M a t e r i a l s ( B u f f e r e d I n p u t S t r e a m stream , byte [ ] b y t e s )
throws IOException {
ByteArrayInputStream ba = new ByteArrayInputStream ( bytes ,
header . o f f s e t S k i n s − 68 , bytes . length −
header . o f f s e t S k i n s ) ;
L i t t l e E n d i a n D a t a I n p u t S t r e a m i s = new
L i t t l e E n d i a n D a t a I n p u t S t r e a m ( ba ) ;
f o r ( int i = 0 ; i < h e a d e r . numSkins ; i ++) {
S t r i n g skinPath = i s . readString (64) ;
S t r i n g B u f f e r t e x t u r e = new S t r i n g B u f f e r ( packageID ) ;
t e x t u r e . append ( ": drawable /" ) ;
skinPath = skinPath . s u b s t r i n g ( skinPath . lastIndexOf (
"/" ) + 1 ,
skinPath . length ( ) ) ;
S t r i n g B u f f e r textureName = new S t r i n g B u f f e r (
s k i n P a t h . toLowerCase ( ) ) ;
int d o t I n d e x = textureName . l a s t I n d e x O f ( "." ) ;
i f ( d o t I n d e x > −1)
t e x t u r e . append ( textureName . s u b s t r i n g ( 0 ,
dotIndex ) ) ;
else
t e x t u r e . append ( textureName ) ;
currentTextureName = t e x t u r e . t o S t r i n g ( ) ;
i f ( ! remoteLocation )
t e x t u r e A t l a s . addBitmapAsset (new BitmapAsset
( currentTextureName ,
currentTextureName ) ) ;
else
{
S t r i n g remoteTexture = "" ;
int s l a s h I n d e x = u r l . l a s t I n d e x O f ( "/" ) ;
i f ( s l a s h I n d e x > −1)
remoteTexture = u r l . s u b s t r i n g ( 0 ,
s l a s h I n d e x +1) ;
remoteTexture+= textureName ;
BitmapAsset baAsset = new BitmapAsset (
currentTextureName , currentTextureName ) ;
baAsset . bitmap = BitmapFactory . decodeStream
(
new
URL
(
remoteTexture
Plataforma educativa basada en realidad aumentada y dispositivos móviles
359
C. Código Fuente
)
.
openConnectio
()
.
getInputStrea
()
)
;
baAsset . u s e F o r A t l a s D i m e n s i o n s = true ;
t e x t u r e A t l a s . addBitmapAssetRemote ( baAsset ) ;
}
}
}
private void getTexCoords ( B u f f e r e d I n p u t S t r e a m stream , byte [ ] b y t e s )
throws IOException {
ByteArrayInputStream ba = new ByteArrayInputStream ( bytes ,
header . offsetTexCoord − 68 , bytes . length
− header . offsetTexCoord ) ;
L i t t l e E n d i a n D a t a I n p u t S t r e a m i s = new
L i t t l e E n d i a n D a t a I n p u t S t r e a m ( ba ) ;
f o r ( int i = 0 ; i < h e a d e r . numTexCoord ; i ++) {
co . texCoords . add (new Uv ( ( f l o a t ) i s . r e a d S h o r t ( ) / (
f l o a t ) h e a d e r . skinWidth , ( f l o a t ) i s . r e a d S h o r t ( ) /
( float ) header . skinHeight ) ) ;
}
}
private void getFrames ( B u f f e r e d I n p u t S t r e a m stream , byte [ ] b y t e s )
throws IOException {
ByteArrayInputStream ba = new ByteArrayInputStream ( bytes ,
header . offsetFrames − 68 , bytes . length −
header . offsetFrames ) ;
L i t t l e E n d i a n D a t a I n p u t S t r e a m i s = new
L i t t l e E n d i a n D a t a I n p u t S t r e a m ( ba ) ;
// A r r a y L i s t <Number3d> f i r s t F r a m e V e r t s = new A r r a y L i s t <
Number3d >() ;
f o r ( int i = 0 ; i < h e a d e r . numFrames ; i ++) {
float scaleX = i s . readFloat () ;
float scaleY = i s . readFloat () ;
float scaleZ = i s . readFloat () ;
float translateX = i s . readFloat () ;
float translateY = i s . readFloat () ;
float translateZ = i s . readFloat () ;
S t r i n g name = i s . r e a d S t r i n g ( 1 6 ) ;
i f ( name . indexOf ( "_" ) > 0 )
name = name . subSequence ( 0 , name . l a s t I n d e x O f
( "_" ) ) . t o S t r i n g ( ) ;
else
360
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
name = name . s u b s t r i n g ( 0 , 6 ) . r e p l a c e A l l ( "
[0 -9]{1 ,2}$" , "" ) ;
Log . d ( Min3d .TAG, " frame name: " + name ) ;
f l o a t v e r t i c e s [ ] = new f l o a t [ h e a d e r . numVerts ∗ 3 ] ;
int i n d e x = 0 ;
f o r ( int j = 0 ; j < h e a d e r . numVerts ; j ++) {
v e r t i c e s [ i n d e x++] = s c a l e X ∗ i s .
readUnsignedByte ( ) + t r a n s l a t e X ;
v e r t i c e s [ i n d e x++] = s c a l e Y ∗ i s .
readUnsignedByte ( ) + t r a n s l a t e Y ;
v e r t i c e s [ i n d e x++] = s c a l e Z ∗ i s .
readUnsignedByte ( ) + t r a n s l a t e Z ;
// i n t normalIndex = i s . r e a d U n s i g n e d B y t e ( ) ;
i f ( i == 0 )
co . v e r t i c e s . add (new Number3d (
v e r t i c e s [ index − 3 ] ,
v e r t i c e s [ index −
2] , vertices [
index − 1 ] ) ) ;
}
f r a m e s [ i ] = new KeyFrame ( name , v e r t i c e s ) ;
}
}
private void g e t T r i a n g l e s ( B u f f e r e d I n p u t S t r e a m stream , byte [ ] b y t e s )
throws IOException {
ByteArrayInputStream ba = new ByteArrayInputStream ( bytes ,
header . o f f s e t T r i a n g l e s − 68 , bytes . length
− header . o f f s e t T r i a n g l e s ) ;
L i t t l e E n d i a n D a t a I n p u t S t r e a m i s = new
L i t t l e E n d i a n D a t a I n p u t S t r e a m ( ba ) ;
int [ ] i n d i c e s = new int [ h e a d e r . numTriangles ∗ 3 ] ;
int i n d e x = 0 ;
f o r ( int i = 0 ; i < h e a d e r . numTriangles ; i ++) {
int [ ] v e r t e x I D s = new int [ 3 ] ;
int [ ] uvIDS = new int [ 3 ] ;
i n d i c e s [ i n d e x +2] = v e r t e x I D s [ 2 ] = i s .
readUnsignedShort ( ) ;
i n d i c e s [ i n d e x +1] = v e r t e x I D s [ 1 ] = i s .
readUnsignedShort ( ) ;
i n d i c e s [ index ] = vertexIDs [ 0 ] = i s .
readUnsignedShort ( ) ;
i n d e x += 3 ;
uvIDS [ 2 ] = i s . r e a d U n s i g n e d S h o r t ( ) ;
uvIDS [ 1 ] = i s . r e a d U n s i g n e d S h o r t ( ) ;
uvIDS [ 0 ] = i s . r e a d U n s i g n e d S h o r t ( ) ;
P a r s e O b j e c t F a c e f = new P a r s e O b j e c t F a c e ( ) ;
f . v = vertexIDs ;
f . uv = uvIDS ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
361
C. Código Fuente
f . hasn = f . hasuv = true ;
f . faceLength = 3;
f . m a t e r i a l K e y = currentTextureName ;
co . numFaces++;
co . f a c e s . add ( f ) ;
co . c a l c u l a t e F a c e N o r m a l ( f ) ;
}
f o r ( int j =0; j <h e a d e r . numFrames ; j ++)
{
frames [ j ] . s e t I n d i c e s ( i n d i c e s ) ;
}
}
/∗ ∗
∗ C l a s e que r e p r e s e n t a l a c a b e c e r a de l o s f i c h e r o s MD2
∗ @author Iván Lorenzo Rubio
∗
∗/
private c l a s s MD2Header {
public int i d ;
public int v e r s i o n ;
public int skinWidth ;
public int s k i n H e i g h t ;
@SuppressWarnings ( " unused " )
public int f r a m e S i z e ;
public int numSkins ;
public int numVerts ;
public int numTexCoord ;
public int numTriangles ;
@SuppressWarnings ( " unused " )
public int numGLCommands ;
public int numFrames ;
public int o f f s e t S k i n s ;
public int o f f s e t T e x C o o r d ;
public int o f f s e t T r i a n g l e s ;
public int o f f s e t F r a m e s ;
@SuppressWarnings ( " unused " )
public int offsetGLCommands ;
public int o f f s e t E n d ;
public void p a r s e ( InputStream stream ) throws E x c e p t i o n {
i d = r e a d I n t ( stream ) ;
v e r s i o n = r e a d I n t ( stream ) ;
i f ( i d != 844121161 | | v e r s i o n != 8 )
throw new E x c e p t i o n ( "This is not a valid
MD2 file." ) ;
skinWidth = r e a d I n t ( stream ) ;
s k i n H e i g h t = r e a d I n t ( stream ) ;
f r a m e S i z e = r e a d I n t ( stream ) ;
numSkins = r e a d I n t ( stream ) ;
numVerts = r e a d I n t ( stream ) ;
numTexCoord = r e a d I n t ( stream ) ;
362
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
numTriangles = r e a d I n t ( stream ) ;
numGLCommands = r e a d I n t ( stream ) ;
numFrames = r e a d I n t ( stream ) ;
o f f s e t S k i n s = r e a d I n t ( stream ) ;
o f f s e t T e x C o o r d = r e a d I n t ( stream ) ;
o f f s e t T r i a n g l e s = r e a d I n t ( stream ) ;
o f f s e t F r a m e s = r e a d I n t ( stream ) ;
offsetGLCommands = r e a d I n t ( stream ) ;
o f f s e t E n d = r e a d I n t ( stream ) ;
}
}
}
Paquete parser C.41: MD2Parser.java
ObjParser.java
package com . i v a n l o r e n z o . p a r s e r ;
import
import
import
import
import
import
java .
java .
java .
java .
java .
java .
i o . BufferedReader ;
i o . IOException ;
i o . InputStream ;
i o . InputStreamReader ;
u t i l . Calendar ;
u t i l . StringTokenizer ;
import min3d . Min3d ;
import min3d . Shared ;
// im p o r t min3d . U t i l s ;
import min3d . c o r e . O b j e c t 3 d C o n t a i n e r ;
import min3d . p a r s e r . P a r s e O b j e c t F a c e ;
import min3d . vos . C o l o r 4 ;
import min3d . vos . Number3d ;
import min3d . vos . Uv ;
import a n d r o i d . c o n t e n t . r e s . R e s o u r c e s ;
import a n d r o i d . g r a p h i c s . Bitmap ;
import a n d r o i d . u t i l . Log ;
/∗ ∗
∗ P a rs e r e s p e cı́ f i c o de l o s o b j e t o s o b j
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s ObjParser extends AParser implements I P a r s e r {
private
private
private
private
private
private
private
private
private
final
final
final
final
final
final
final
final
final
String
String
String
String
String
String
String
String
String
VERTEX = "v" ;
FACE = "f" ;
TEXCOORD = "vt" ;
NORMAL = "vn" ;
OBJECT = "o" ;
MATERIAL LIB = " mtllib " ;
USE MATERIAL = " usemtl " ;
NEW MATERIAL = " newmtl " ;
DIFFUSE COLOR = "Kd" ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
363
C. Código Fuente
private f i n a l S t r i n g DIFFUSE TEX MAP = " map_Kd " ;
/∗ ∗
∗ Crea una nueva i n s t a n c i a de un p a r s e r OBJ
∗
∗ @param r e s o u r c e s Recursos de l a a p l i c a c i ó n
∗ @param r e s o u r c e I D I d e n t i f i c a d o r d e l r e c u r s o
∗ @param generateMipMap
∗/
public ObjParser ( R e s o u r c e s r e s o u r c e s , S t r i n g r e s o u r c e I D , boolean
generateMipMap ) {
super ( r e s o u r c e s , r e s o u r c e I D , generateMipMap ) ;
}
/∗ ∗
∗ Crea una nueva i n s t a n c i a de un p a r s e r OBJ
∗ @param u r l D i r e c c i ó n en l a que s e e n c u e n t r a e l o b j e t o a p a r s e a r
∗/
public ObjParser ( S t r i n g u r l )
{
super ( u r l ) ;
}
@Override
public void p a r s e ( ) {
long s t a r t T i m e = Calendar . g e t I n s t a n c e ( ) . g e t T i m e I n M i l l i s ( ) ;
B u f f e r e d R e a d e r b u f f e r = new B u f f e r e d R e a d e r (
new InputStreamReader ( f i l e I n ) ) ;
String line ;
co = new ParseObjectData ( v e r t i c e s , texCoords , normals ) ;
p a r s e O b j e c t s . add ( co ) ;
Log . d ( Min3d .TAG, " Start parsing object " + r e s o u r c e I D ) ;
Log . d ( Min3d .TAG, " Start time " + s t a r t T i m e ) ;
try {
while ( ( l i n e = b u f f e r . r e a d L i n e ( ) ) != null ) {
// remove d u p l i c a t e w h i t e s p a c e
// l i n e = l i n e . r e p l a c e A l l (”\\ s +”, ” ”) ;
// S t r i n g [ ] p a r t s = l i n e . s p l i t (” ”) ;
S t r i n g T o k e n i z e r p a r t s = new S t r i n g T o k e n i z e r
( line , " ") ;
int numTokens = p a r t s . countTokens ( ) ;
i f ( numTokens == 0 )
continue ;
S t r i n g type = p a r t s . nextToken ( ) ;
i f ( type . e q u a l s (VERTEX) ) {
Number3d v e r t e x = new Number3d ( ) ;
vertex . x = Float . parseFloat ( parts .
nextToken ( ) ) ;
vertex . y = Float . parseFloat ( parts .
nextToken ( ) ) ;
364
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
} else
} else
} else
} else
} else
} else
vertex . z = Float . parseFloat ( parts .
nextToken ( ) ) ;
v e r t i c e s . add ( v e r t e x ) ;
i f ( type . e q u a l s (FACE) ) {
i f ( numTokens == 4 ) {
co . numFaces++;
co . f a c e s . add (new ObjFace (
line , currentMaterialKey
, 3) ) ;
} e l s e i f ( numTokens == 5 ) {
co . numFaces += 2 ;
co . f a c e s . add (new ObjFace (
line , currentMaterialKey
, 4) ) ;
}
i f ( type . e q u a l s (TEXCOORD) ) {
Uv texCoord = new Uv ( ) ;
texCoord . u = F l o a t . p a r s e F l o a t ( p a r t s
. nextToken ( ) ) ;
texCoord . v = F l o a t . p a r s e F l o a t ( p a r t s
. nextToken ( ) ) ∗ −1 f ;
texCoords . add ( texCoord ) ;
i f ( type . e q u a l s (NORMAL) ) {
Number3d normal = new Number3d ( ) ;
normal . x = F l o a t . p a r s e F l o a t ( p a r t s .
nextToken ( ) ) ;
normal . y = F l o a t . p a r s e F l o a t ( p a r t s .
nextToken ( ) ) ;
normal . z = F l o a t . p a r s e F l o a t ( p a r t s .
nextToken ( ) ) ;
normals . add ( normal ) ;
i f ( type . e q u a l s (MATERIAL LIB) ) {
r e a d M a t e r i a l L i b ( p a r t s . nextToken ( ) ) ;
i f ( type . e q u a l s (USE MATERIAL) ) {
currentMaterialKey = parts .
nextToken ( ) ;
i f ( type . e q u a l s (OBJECT) ) {
S t r i n g objName = p a r t s .
hasMoreTokens ( ) ? p a r t s .
nextToken ( ) : "" ;
if ( firstObject )
{
Log . d ( Min3d .TAG, " Create
object " + objName ) ;
co . name = objName ;
firstObject = false ;
}
else
{
Log . d ( Min3d .TAG, " Create
object " + objName ) ;
co = new ParseObjectData (
v e r t i c e s , texCoords ,
normals ) ;
co . name = objName ;
p a r s e O b j e c t s . add ( co ) ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
365
C. Código Fuente
}
}
}
} catch ( IOException e ) {
e . printStackTrace () ;
}
long endTime = Calendar . g e t I n s t a n c e ( ) . g e t T i m e I n M i l l i s ( ) ;
Log . d ( Min3d .TAG, "End time " + ( endTime − s t a r t T i m e ) ) ;
}
@Override
public O b j e c t 3 d C o n t a i n e r g e t P a r s e d O b j e c t ( ) {
Log . d ( Min3d .TAG, " Start object creation " ) ;
O b j e c t 3 d C o n t a i n e r o b j = new O b j e c t 3 d C o n t a i n e r ( 0 , 0 ) ;
int numObjects = p a r s e O b j e c t s . s i z e ( ) ;
Bitmap t e x t u r e = null ;
i f ( t e x t u r e A t l a s . hasBitmaps ( ) )
{
textureAtlas . generate () ;
t e x t u r e = t e x t u r e A t l a s . getBitmap ( ) ;
Shared . textureManager ( ) . addTextureId ( t e x t u r e ,
t e x t u r e A t l a s . g e t I d ( ) , generateMipMap ) ;
}
f o r ( int i = 0 ; i < numObjects ; i ++) {
ParseObjectData o = p a r s e O b j e c t s . g e t ( i ) ;
Log . d ( Min3d .TAG, " Creating object " + o . name ) ;
o b j . addChild ( o . g e t P a r s e d O b j e c t ( materialMap ,
textureAtlas ) ) ;
}
i f ( t e x t u r e A t l a s . hasBitmaps ( ) )
{
i f ( t e x t u r e != null ) t e x t u r e . r e c y c l e ( ) ;
}
Log . d ( Min3d .TAG, " Object creation finished " ) ;
cleanup ( ) ;
return o b j ;
}
/∗ ∗
∗ Lee e l m a t e r i a l
∗ @param l i b I D I d e n t i f i c a d o r d e l m a t e r i a l
∗/
private void r e a d M a t e r i a l L i b ( S t r i n g l i b I D ) {
S t r i n g B u f f e r r e s o u r c e I D = new S t r i n g B u f f e r ( packageID ) ;
S t r i n g B u f f e r l i b I D S b u f = new S t r i n g B u f f e r ( l i b I D ) ;
int d o t I n d e x = l i b I D S b u f . l a s t I n d e x O f ( "." ) ;
i f ( d o t I n d e x > −1)
l i b I D S b u f = l i b I D S b u f . r e p l a c e ( dotIndex , d o t I n d e x +
1 , "_" ) ;
366
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
r e s o u r c e I D . append ( ":raw/" ) ;
r e s o u r c e I D . append ( l i b I D S b u f . t o S t r i n g ( ) ) ;
InputStream f i l e I n = r e s o u r c e s . openRawResource ( r e s o u r c e s .
getIdentifier (
r e s o u r c e I D . t o S t r i n g ( ) , null , null ) ) ;
B u f f e r e d R e a d e r b u f f e r = new B u f f e r e d R e a d e r (
new InputStreamReader ( f i l e I n ) ) ;
String line ;
S t r i n g c u r r e n t M a t e r i a l = "" ;
try {
while ( ( l i n e = b u f f e r . r e a d L i n e ( ) ) != null ) {
String [ ] parts = l i n e . s p l i t (" ") ;
i f ( p a r t s . l e n g t h == 0 )
continue ;
S t r i n g type = p a r t s [ 0 ] ;
i f ( type . e q u a l s (NEW MATERIAL) ) {
i f ( parts . length > 1) {
currentMaterial = parts [ 1 ] ;
materialMap . put (
c u r r e n t M a t e r i a l , new
Material (
currentMaterial
));
}
} e l s e i f ( type . e q u a l s (DIFFUSE COLOR) && !
type . e q u a l s (DIFFUSE TEX MAP) ) {
C o l o r 4 d i f f u s e C o l o r = new C o l o r 4 (
Float . parseFloat ( parts [ 1 ] ) ∗
255.0 f , Float . parseFloat ( parts
[ 2 ] ) ∗ 255.0 f , Float . parseFloat (
parts [ 3 ] ) ∗ 255.0 f , 255.0 f ) ;
materialMap . g e t ( c u r r e n t M a t e r i a l ) .
diffuseColor = diffuseColor ;
} e l s e i f ( type . e q u a l s (DIFFUSE TEX MAP) ) {
i f ( parts . length > 1) {
materialMap . g e t (
currentMaterial ) .
diffuseTextureMap =
parts [ 1 ] ;
S t r i n g B u f f e r t e x t u r e = new
S t r i n g B u f f e r ( packageID ) ;
t e x t u r e . append ( ": drawable /"
);
S t r i n g B u f f e r textureName =
new S t r i n g B u f f e r ( p a r t s
[1]) ;
d o t I n d e x = textureName .
l a s t I n d e x O f ( "." ) ;
i f ( d o t I n d e x > −1)
t e x t u r e . append (
textureName .
Plataforma educativa basada en realidad aumentada y dispositivos móviles
367
C. Código Fuente
substring (0 ,
dotIndex ) ) ;
else
t e x t u r e . append (
textureName ) ;
// i n t bmResourceID =
resources . g e t I d e n t i f i e r (
texture
//
. toString ()
, null , null ) ;
// Bitmap b = U t i l s .
makeBitmapFromResourceId
( bmResourceID ) ;
t e x t u r e A t l a s . addBitmapAsset
(new BitmapAsset (
currentMaterial , texture
. toString () ) ) ;
}
}
}
} catch ( IOException e ) {
e . printStackTrace () ;
}
}
@Override
protected void c l e a n u p ( ) {
super . c l e a n u p ( ) ;
materialMap . c l e a r ( ) ;
}
/∗ ∗
∗ C l a s e p r i v a d a que r e p r e s e n t a una cara d e l o b j e t o
∗ @author Iván Lorenzo Rubio
∗
∗/
private c l a s s ObjFace extends P a r s e O b j e c t F a c e
{
public ObjFace ( S t r i n g l i n e , S t r i n g materialKey , int
faceLength ) {
super ( ) ;
this . materialKey = materialKey ;
this . faceLength = faceLength ;
boolean emptyVt = l i n e . indexOf ( "//" ) > −1;
i f ( emptyVt ) l i n e = l i n e . r e p l a c e ( "//" , "/" ) ;
S t r i n g T o k e n i z e r p a r t s = new S t r i n g T o k e n i z e r ( l i n e ) ;
p a r t s . nextToken ( ) ;
S t r i n g T o k e n i z e r s u b P a r t s = new S t r i n g T o k e n i z e r (
p a r t s . nextToken ( ) , "/" ) ;
int pa rt Le ng th = s u b P a r t s . countTokens ( ) ;
hasuv = pa rt Le ng th >= 2 && ! emptyVt ;
hasn = p ar tL en gt h == 3 | | ( pa rt Le ng th == 2 &&
emptyVt ) ;
368
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
v = new int [ f a c e L e n g t h ] ;
i f ( hasuv )
uv = new int [ f a c e L e n g t h ] ;
i f ( hasn )
n = new int [ f a c e L e n g t h ] ;
f o r ( int i = 1 ; i < f a c e L e n g t h + 1 ; i ++) {
i f ( i > 1)
s u b P a r t s = new S t r i n g T o k e n i z e r (
p a r t s . nextToken ( ) , "/" ) ;
int i n d e x = i − 1 ;
v [ i n d e x ] = ( short ) ( S h o r t . p a r s e S h o r t (
s u b P a r t s . nextToken ( ) ) − 1 ) ;
i f ( hasuv )
uv [ i n d e x ] = ( short ) ( S h o r t .
p a r s e S h o r t ( s u b P a r t s . nextToken ( ) )
− 1) ;
i f ( hasn )
n [ i n d e x ] = ( short ) ( S h o r t .
p a r s e S h o r t ( s u b P a r t s . nextToken ( ) )
− 1) ;
}
}
}
}
Paquete parser C.42: ObjParser.java
C.4.8.
Paquete com.ivanlorenzo.connection
ConnectionStatus.java
package com . i v a n l o r e n z o . c o n n e c t i o n ;
import a n d r o i d . c o n t e n t . Context ;
import a n d r o i d . n e t . Conne ctivityManager ;
import a n d r o i d . n e t . NetworkInfo ;
/∗ ∗
∗ C l a s e que u t i l i z a r e m o s para comprobar e l e s t a d o de l a c o n e x i ó n a
Internet
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s C o n n e c t i o n S t a t u s
{
/∗ ∗
∗ Comprueba s i tenemos o no c o n e x i ó n a I n t e r n e t
∗ @param c o n t e x t El c o n t e x t o de l a a p l i c a c i ó n
∗ @return D e v u e l v e v e r d a d e r o en c a s o de t e n e r c o n e x i ó n y f a l s o en
caso c o n t r a r i o
Plataforma educativa basada en realidad aumentada y dispositivos móviles
369
C. Código Fuente
∗/
public s t a t i c boolean c h e c k I n t e r n e t C o n n e c t i o n ( Context c o n t e x t )
{
ConnectivityManage r conMgr = ( ConnectivityManager )
c o n t e x t . g e t S y s t e m S e r v i c e ( Context .
CONNECTIVITY SERVICE) ;
i f ( conMgr . g e t N e t w o r k I n f o ( ConnectivityManage r . TYPE MOBILE)
. g e t S t a t e ( ) == NetworkInfo . S t a t e .DISCONNECTED
&& conMgr . g e t N e t w o r k I n f o ( Co nnectivityManager . TYPE WIFI) .
g e t S t a t e ( ) == NetworkInfo . S t a t e .DISCONNECTED )
return f a l s e ;
return true ;
}
}
Paquete connection C.43: ConnectionStatus.java
C.4.9.
Paquete com.ivanlorenzo.gui
TFGARActivity.java
package com . i v a n l o r e n z o . g u i ;
import j a v a . i o . IOException ;
import j a v a . i o . InputStream ;
import j a v a . u t i l . A r r a y L i s t ;
import j a v a x . xml . xpath . XPathExpressionException ;
import com . i v a n l o r e n z o . g u i .R;
import
import
import
import
import
import
import
import
import
import
import
import
com . a n d r o i d . camera . CameraHardwareException ;
com . a n d r o i d . camera . CameraHolder ;
com . i v a n l o r e n z o . c o n n e c t i o n . C o n n e c t i o n S t a t u s ;
com . i v a n l o r e n z o . data . Co m p i le r G en e r a to r ;
com . i v a n l o r e n z o . data . KnowledgeBase ;
com . i v a n l o r e n z o . data . e x c e p t i o n s . LoadXMLException ;
com . i v a n l o r e n z o . data . e x c e p t i o n s . NoSuchExtensionObject3DException ;
com . i v a n l o r e n z o . g u i . d i a l o g s . DialogType ;
com . i v a n l o r e n z o . g u i . p r e f e r e n c e s . T F G P r e f e r e n c e s A c t i v i t y ;
com . i v a n l o r e n z o . l o c a t i o n . A R L o c a t i o n L i s t e n e r ;
com . i v a n l o r e n z o . l o c a t i o n . LocationData ;
com . i v a n l o r e n z o . l o c a t i o n . o b s e r v e r . IARObserver ;
import
import
import
import
import
min3d . Shared ;
min3d . c o r e . Object3d ;
min3d . c o r e . Renderer ;
min3d . c o r e . Scene ;
min3d . vos . L i g h t ;
370
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
import a n d r o i d . app . A c t i v i t y ;
import a n d r o i d . app . A l e r t D i a l o g ;
import a n d r o i d . app . D i a l o g ;
import a n d r o i d . app . P r o g r e s s D i a l o g ;
import a n d r o i d . c o n t e n t . Context ;
import a n d r o i d . c o n t e n t . D i a l o g I n t e r f a c e ;
import a n d r o i d . c o n t e n t . I n t e n t ;
import a n d r o i d . c o n t e n t . S h a r e d P r e f e r e n c e s ;
import a n d r o i d . c o n t e n t .pm. A c t i v i t y I n f o ;
import a n d r o i d . c o n t e n t . r e s . C o n f i g u r a t i o n ;
import a n d r o i d . c o n t e n t . r e s . R e s o u r c e s ;
import a n d r o i d . c o n t e n t . r e s . R e s o u r c e s . NotFoundException ;
import a n d r o i d . g r a p h i c s . PixelFormat ;
import a n d r o i d . hardware . Camera ;
import a n d r o i d . l o c a t i o n . C r i t e r i a ;
import a n d r o i d . l o c a t i o n . L o c a t i o n L i s t e n e r ;
import a n d r o i d . l o c a t i o n . LocationManager ;
import a n d r o i d . media . MediaPlayer ;
import a n d r o i d . o p e n g l . GLSurfaceView ;
import a n d r o i d . o s . B u i l d ;
import a n d r o i d . o s . Bundle ;
import a n d r o i d . o s . Handler ;
import a n d r o i d . o s . Message ;
import a n d r o i d . view . Menu ;
import a n d r o i d . view . M e n u I n f l a t e r ;
import a n d r o i d . view . MenuItem ;
import a n d r o i d . view . MotionEvent ;
import a n d r o i d . view . O r i e n t a t i o n E v e n t L i s t e n e r ;
import a n d r o i d . view . S c a l e G e s t u r e D e t e c t o r ;
import a n d r o i d . view . S u r f a c e H o l d e r ;
import a n d r o i d . view . S u r f a c e V i e w ;
import a n d r o i d . view . View ;
import a n d r o i d . view . Window ;
import a n d r o i d . view . WindowManager ;
// im p o r t a n d r o i d . v i e w . ViewGroup . LayoutParams ;
import a n d r o i d . w i d g e t . FrameLayout ;
/∗ ∗
∗ C l a s e A c t i v i t y p r i n c i p a l de l a a p l i c a c i ó n . Será l a e ncarga da de manejar
l a r e c e p c i ó n de d a t o s de l a cámara .
∗ Además , r e c i b i r á l o s e v e n t o s t á c t i l e s p r o d u c i d o s en l a p a n t a l l a y
g e s t i o n a r á l a e s c e n a en l a que s e e n c o n t r a r á n
∗ todos los objetos .
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s TFGARActivity extends A c t i v i t y implements View . O n C l i c k L i s t e n e r
, S u r f a c e H o l d e r . C all ba ck ,
min3d . i n t e r f a c e s . I S c e n e C o n t r o l l e r , IARObserver<
LocationData>
{
/∗ ∗
∗ Array con l o s mensajes de l a a p l i c a c i ó n
∗/
private s t a t i c MessageWhat [ ] messageWhat = MessageWhat . v a l u e s ( ) ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
371
C. Código Fuente
/∗ ∗
∗ Tiempo de d e l a y de l a p a n t a l l a
∗/
private s t a t i c f i n a l int SCREEN DELAY = 2 ∗ 60 ∗ 1 0 0 0 ;
/∗ ∗
∗ Paramétros de l a cámara
∗/
private a n d r o i d . hardware . Camera . Parameters mParameters ;
/∗ ∗
∗ Manejador de e v e n t o s de l a o r i e n t a c i ó n
∗/
private O r i e n t a t i o n E v e n t L i s t e n e r m O r i e n t a t i o n L i s t e n e r ;
/∗ ∗
∗ Última o r i e n t a c i ó n d e l d i s p o s i t i v o
∗/
private int m L a s t O r i e n t a t i o n = 0 ;
/∗ ∗
∗ P r e f e r e n c i a s c o m p a r t i d a s de l a a p l i c a c i ó n
∗/
private S h a r e d P r e f e r e n c e s m P r e f e r e n c e s ;
/∗ ∗
∗ D i s p o s i t i v o de cámara
∗/
private a n d r o i d . hardware . Camera mCameraDevice ;
private
private
private
private
S u r f a c e V i e w mSurfaceView ;
S u r f a c e H o l d e r mSurfaceHolder = null ;
boolean m S t a r t P r e v i e w F a i l = f a l s e ;
GLSurfaceView mGLSurfaceView = null ;
/∗ ∗
∗ R e n d e r i z a d o r de min3d
∗/
private Renderer mRenderer ;
/∗ ∗
∗ Nos i n d i c a s i estamos c a p t u r a n d o imágenes p r e v i a s
∗/
private boolean mPreviewing ;
/∗ ∗
∗ Nos i n d i c a s i e s t á pausado
∗/
private boolean mPausing ;
/∗ ∗
∗ Nos i n d i c a s i ya e s t á i n i c i a l i z a d a l a a p l i c a c i ó n
∗/
private boolean m F i r s t T i m e I n i t i a l i z e d ;
/∗ ∗
∗ Manejador p r i n c i p a l
∗/
private Handler mHandler = new MainHandler ( ) ;
/∗ ∗
∗ Llamada a l a v i s t a p r e v i a
372
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
∗/
private P r e v i e w C a l l b a c k mPreviewCallback = new P r e v i e w C a l l b a c k ( ) ;
/∗ ∗
∗ I n s t a n c i a en cargad a de d i b u j a r l o s o b j e t o s
∗/
private ARToolkitDrawer a r T o o l k i t D r a w e r = null ;
/∗ ∗
∗ MediaPlayer
∗/
private MediaPlayer mMediaPlayer = null ;
/∗ ∗
∗ Estado de l a a p l i a c i ó n
∗/
private ARStatus a r S t a t u s = ARStatus . AR Marker ;
/∗ ∗
∗ Se l l a m a cuando s e c r e a l a a c t i v i d a d
∗/
@Override
public void onCreate ( Bundle i c i c l e )
{
super . onCreate ( i c i c l e ) ;
mPreferences = U t i l . getSharedPreferences ( this ) ;
// Renderer o f min3d
i n i t S c e n e H a n d e r = new Handler ( ) ;
updateSceneHander = new Handler ( ) ;
Shared . c o n t e x t ( t h i s ) ;
s c e n e = new Scene ( t h i s ) ;
s c e n e . backgroundTransparent ( true ) ;
mRenderer = new Renderer ( s c e n e ) ;
Shared . r e n d e r e r ( mRenderer ) ;
requestWindowFeature ( Window .FEATURE PROGRESS) ;
Window win = getWindow ( ) ;
win . addFlags ( WindowManager . LayoutParams . FLAG KEEP SCREEN ON
);
win . addFlags ( WindowManager . LayoutParams . FLAG FULLSCREEN) ;
setContentView (R. l a y o u t . main ) ;
mSurfaceView = ( S u r f a c e V i e w ) findViewById (R. i d . c a m e r a p r e v i e w ) ;
mSurfaceView . setKeepScreenOn ( true ) ;
S u r f a c e H o l d e r h o l d e r = mSurfaceView . g e t H o l d e r ( ) ;
h o l d e r . addCallback ( t h i s ) ;
h o l d e r . setType ( S u r f a c e H o l d e r . SURFACE TYPE PUSH BUFFERS) ;
// Comprobar l a c o n e x i ó n
i f ( ! ConnectionStatus . checkInternetConnection ( this ) )
Plataforma educativa basada en realidad aumentada y dispositivos móviles
373
C. Código Fuente
showDialog ( DialogType .DIALOG ERROR CONNECTION. o r d i n a l ( ) ) ;
// I n i c i a m o s l a r e c e p c i ó n de n u e s t r a p o s i c i ó n
this . startGPSLocation ( ) ;
m S c a l e D e t e c t o r = new S c a l e G e s t u r e D e t e c t o r ( this , new S c a l e L i s t e n e r ( )
);
}
@Override
public void o n S t a r t ( )
{
super . o n S t a r t ( ) ;
}
@Override
public void onResume ( )
{
super . onResume ( ) ;
mPausing = f a l s e ;
// S t a r t t h e p r e v i e w i f i t i s not s t a r t e d .
i f ( ! mPreviewing && ! m S t a r t P r e v i e w F a i l && ( mSurfaceHolder != null ) )
{
try {
startPreview () ;
} catch ( E x c e p t i o n e ) {
showCameraErrorAndFinish ( ) ;
return ;
}
}
i f ( mSurfaceHolder != null ) {
// I f f i r s t time i n i t i a l i z a t i o n i s not f i n i s h e d , p u t i t i n t h e
// message queue .
if (! mFirstTimeInitialized )
{
mHandler . sendEmptyMessage ( MessageWhat . FIRST TIME INIT .
ordinal () ) ;
} else {
initializeSecondTime () ;
}
}
keepScreenOnAwhile ( ) ;
createCompilerXML ( ) ;
}
@Override
protected void onPause ( )
374
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
{
mPausing = true ;
stopPreview ( ) ;
// C l o s e t h e camera now b e c a u s e o t h e r a c t i v i t i e s may need t o use i t
.
closeCamera ( ) ;
resetScreenOn () ;
changeGLSurfaceViewState ( ) ;
if ( mFirstTimeInitialized ) {
mOrientationListener . disable () ;
}
// Remove t h e messages i n t h e e v e n t queue .
mHandler . removeMessages ( MessageWhat .RESTART PREVIEW. o r d i n a l ( ) ) ;
mHandler . removeMessages ( MessageWhat . FIRST TIME INIT . o r d i n a l ( ) ) ;
super . onPause ( ) ;
}
@Override
public void onStop ( )
{
super . onStop ( ) ;
}
@Override
protected void onDestroy ( )
{
super . onDestroy ( ) ;
finish () ;
System . e x i t ( 0 ) ;
}
@Override
protected void o n A c t i v i t y R e s u l t ( int requestCode , int r e s u l t C o d e ,
I n t e n t data )
{
switch ( messageWhat [ r e q u e s t C o d e ] )
{
case CROP MSG:
{
I n t e n t i n t e n t = new I n t e n t ( ) ;
i f ( data != null ) {
Bundle e x t r a s = data . g e t E x t r a s ( ) ;
i f ( e x t r a s != null ) {
i n t e n t . putExtras ( e x t r a s ) ;
}
}
setResult ( resultCode , intent ) ;
finish () ;
break ;
}
Plataforma educativa basada en realidad aumentada y dispositivos móviles
375
C. Código Fuente
}
}
@Override
public boolean onCreateOptionsMenu (Menu menu )
{
MenuInflater i n f l a t e r = getMenuInflater () ;
i n f l a t e r . i n f l a t e (R. menu . menu , menu ) ;
return true ;
}
@Override
public boolean o n O p t i o n s I t e m S e l e c t e d ( MenuItem item )
{
switch ( item . g e t I t e m I d ( ) ) {
case R. i d . c o n f i g u r a t i o n :
I n t e n t i n t e n t = new I n t e n t ( this ,
TFGPreferencesActivity . class ) ;
startActivity ( intent ) ;
break ;
case R. i d . e x i t :
showDialog ( DialogType . DIALOG EXIT . o r d i n a l ( ) ) ;
break ;
}
return true ;
}
@Override
protected D i a l o g o n C r e a t e D i a l o g ( int i d )
{
f i n a l DialogType [ ] d i a l o g T y p e s = DialogType . v a l u e s ( ) ;
switch ( d i a l o g T y p e s [ i d ] ) {
case DIALOG LOADING : {
P r o g r e s s D i a l o g d i a l o g = new P r o g r e s s D i a l o g ( t h i s ) ;
d i a l o g . s e t M e s s a g e ( g e t S t r i n g (R. s t r i n g . l o a d i n g ) ) ;
dialog . setCancelable ( false ) ;
d i a l o g . getWindow ( ) . s e t F l a g s
( WindowManager . LayoutParams .
FLAG BLUR BEHIND,
WindowManager . LayoutParams .
FLAG BLUR BEHIND) ;
return d i a l o g ;
}
case DIALOG ERROR CONNECTION: {
setRequestedOrientation ( ActivityInfo .
SCREEN ORIENTATION PORTRAIT) ;
return new A l e r t D i a l o g . B u i l d e r ( t h i s )
. s e t M e s s a g e ( g e t S t r i n g (R. s t r i n g .
internet connection ) )
376
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
. s e t T i t l e ( g e t S t r i n g (R. s t r i n g .
connection error ) )
. setCancelable ( false )
. s e t N e u t r a l B u t t o n ( a n d r o i d .R. s t r i n g . ok ,
new D i a l o g I n t e r f a c e . O n C l i c k L i s t e n e r ( ) {
public void o n C l i c k ( D i a l o g I n t e r f a c e
d i a l o g , int whichButton )
{
onDestroy ( ) ;
}
})
. show ( ) ;
}
case DIALOG EXIT : {
return new A l e r t D i a l o g . B u i l d e r ( t h i s )
. s e t M e s s a g e ( g e t S t r i n g (R. s t r i n g . s u r e e x i t ) )
. setCancelable ( false )
. s e t P o s i t i v e B u t t o n ( g e t S t r i n g (R. s t r i n g . y e s ) ,
new D i a l o g I n t e r f a c e . O n C l i c k L i s t e n e r ( ) {
public void o n C l i c k ( D i a l o g I n t e r f a c e d i a l o g , int
id ) {
onDestroy ( ) ;
}
})
. s e t N e g a t i v e B u t t o n ( g e t S t r i n g (R. s t r i n g . no ) ,
new D i a l o g I n t e r f a c e . O n C l i c k L i s t e n e r ( ) {
public void o n C l i c k ( D i a l o g I n t e r f a c e
d i a l o g , int i d ) {
dialog . cancel () ;
}
})
. show ( ) ;
}
//
//
//
//
//
//
//
//
//
//
//
//
c a s e ALERT DIALOG LOADED DATA: {
r e t u r n new A l e r t D i a l o g . B u i l d e r ( t h i s )
. s e t M e s s a g e (” Cargados l o s d a t o s ”)
. setCancelable ( false )
. s e t N e g a t i v e B u t t o n (”OK” , new
DialogInterface . OnClickListener () {
p u b l i c void onClick ( DialogInterface dialog , int
id ) {
dialog . cancel () ;
}
})
. show ( ) ;
}
default :
return super . o n C r e a t e D i a l o g ( i d ) ;
}
}
Plataforma educativa basada en realidad aumentada y dispositivos móviles
377
C. Código Fuente
@Override
public void onBackPressed ( )
{
showDialog ( DialogType . DIALOG EXIT . o r d i n a l ( ) ) ;
}
/∗ ∗
∗ Empezaremos a tomar c a p t u r a s de l a cámara . D e b e rı́ a s e r l l a m a d o una
sola vez .
∗ Esto p o d rı́ a h a b e r s e hecho en e l método onCreate ( ) , pero queremos
a sı́ l o g r a m o s que
∗ a p a r e z c a l a p a n t a l l a de l a cámara tan p r o n t o como s e a p o s i b l e .
∗/
private void i n i t i a l i z e F i r s t T i m e ( )
{
i f ( m F i r s t T i m e I n i t i a l i z e d ) return ;
// Creamos e l l i s t e n t e r de o r i e n t a c i ó n . Esto s e d e b e h a c e r en primer
l u g a r porque
// s e n e c e s i t a c i e r t o tiempo para c o n s e g u i r l a primera o r i e n t a c i ó n .
mOrientationListener =
new O r i e n t a t i o n E v e n t L i s t e n e r ( t h i s ) {
@Override
public void onOrientationChanged ( int o r i e n t a t i o n ) {
// Mantenemos l a ú l t i m a o r i e n t a c i ó n c o n o c i d a
i f ( o r i e n t a t i o n != ORIENTATION UNKNOWN) {
o r i e n t a t i o n += 9 0 ;
}
o r i e n t a t i o n = Util . roundOrientation ( o r i e n t a t i o n ) ;
i f ( o r i e n t a t i o n != m L a s t O r i e n t a t i o n ) {
mLastOrientation = o r i e n t a t i o n ;
}
}
};
mOrientationListener . enable () ;
m F i r s t T i m e I n i t i a l i z e d = true ;
changeGLSurfaceViewState ( ) ;
}
/∗ ∗
∗ S i l a a c t i v i d a d e s pausada y l u e g o s e c o n t i n ú a , s e l l a m a r á a e s t e
método en onResume
∗/
private void i n i t i a l i z e S e c o n d T i m e ( )
{
// I n i c i a m o s e l o r i e n t a t i o n L i s t e n e r s i e s p o s i b l e
mOrientationListener . enable () ;
378
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
changeGLSurfaceViewState ( ) ;
}
/∗ ∗
∗ C l a s e manejadora que s e u t i l i z a para e n v i a r mensajes a l h i l o
p r i n c i p a l de l a a p l i c a c i ó n
∗ @author Iván Lorenzo Rubio
∗
∗/
private c l a s s MainHandler extends Handler
{
@Override
public void handleMessage ( Message msg )
{
switch ( messageWhat [ msg . what ] )
{
case RESTART PREVIEW:
{
restartPreview () ;
break ; }
case CLEAR SCREEN DELAY :
{
getWindow ( ) . c l e a r F l a g s ( WindowManager .
LayoutParams .
case FIRST TIME INIT :
{
initializeFirstTime
() ;
break ; }
case SHOW LOADING:
{
showDialog (
DialogType . DIALOG LOADING . o r d i n a l ( ) ) ;
break ; }
case HIDE LOADING :
{
try {
d i s m i s s D i a l o g ( DialogType .
DIALOG LOADING . o r d i n a l ( )
);
removeDialog ( DialogType .
DIALOG LOADING . o r d i n a l ( )
);
} catch ( I l l e g a l A r g u m e n t E x c e p t i o n e
) {}
break ;
}
Plataforma educativa basada en realidad aumentada y dispositivos móviles
379
C. Código Fuente
}
}
}
/∗ ∗
∗ I n i c i a e l s e r v i c i o de l o c a l i z a c i ó n u t i l i z a n d o e l mejor p r o v e e d o r
, b i e n s e a GPS o a t r a v é s de l a c o n e x i ó n a I n t e r n e t .
∗ La b ú s q u e d a s e r e a l i z a cada 1 2 0 . 0 0 0 ms = 2 minutos de tiempo .
∗/
private void s t a r t G P S L o c a t i o n ( )
{
String bestProvider ;
C r i t e r i a c r i t e r i a = new C r i t e r i a ( ) ;
/∗ Usamos l a c l a s e LocationManager para o b t e n e r l o c a l i z a c i o n e s GPS
∗/
LocationManager mlocManager = ( LocationManager ) g e t S y s t e m S e r v i c e (
Context . LOCATION SERVICE) ;
b e s t P r o v i d e r = mlocManager . g e t B e s t P r o v i d e r ( c r i t e r i a , f a l s e ) ;
L o c a t i o n L i s t e n e r m l o c L i s t e n e r = new A R L o c a t i o n L i s t e n e r ( this , 1 0 ) ;
mlocManager . r e q u e s t L o c a t i o n U p d a t e s ( b e s t P r o v i d e r , 1 2 0 0 0 0 , 0 ,
mlocListener ) ;
}
/∗ ∗
∗ Crea e l c o m p i l a d o r XML p a s á n d o l e l a s URLs de l o s a r c h i v o s de
c o n f i g u r a c i ó n y s e muestra
∗ un d i á l o g o informado de que ha terminado l a c a r g a
∗/
private void createCompilerXML ( )
{
try
{
C o mp i l er G e n er a t or . BASE . c l e a r ( ) ;
C o mp i l er G e n er a t or . c o m p i l e (
getResources () ,
mPreferences . getString ( "
URL_PATTERNS " , "http :// tfg.
ivanlorenzo .es/data/ patterns .dtd
" ) , "" ,
m P r e f e r e n c e s . g e t S t r i n g ( " URL_OBJECTS
" , "http :// tfg. ivanlorenzo .es/
data/ objects .dtd" ) , "" ) ;
}
catch ( LoadXMLException l x m l e )
lxmle . printStackTrace ( ) ; }
380
{
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
catch ( XPathExpressionException xpee )
printStackTrace () ;}
catch ( NotFoundException e )
{
e . printStackTrace () ;}
catch ( NoSuchExtensionObject3DException e )
printStackTrace () ;}
catch ( IOException e )
{
showDialog ( DialogType .
DIALOG ERROR CONNECTION. o r d i n a l ( ) ) ;
{
xpee .
{
e.
}
}
/∗ ∗
∗ C l a s e u t i l i z a d a para e n v i a r y r e c i b i r c o p i a s de l o s frames
mostrados
∗ @author Iván Lorenzo Rubio
∗
∗/
private f i n a l c l a s s P r e v i e w C a l l b a c k implements a n d r o i d . hardware . Camera .
PreviewCallback
{
@Override
public void onPreviewFrame ( byte [ ] data , Camera camera )
{
i f ( mPausing )
return ;
i f ( data != null )
{
i f ( a r T o o l k i t D r a w e r != null && a r S t a t u s ==
ARStatus . AR Marker )
a r T o o l k i t D r a w e r . draw ( data ) ;
}
else {
try {
// The measure a g a i n s t o v e r l o a d .
Thread . s l e e p ( 5 0 0 ) ;
} catch ( I n t e r r u p t e d E x c e p t i o n e ) { ; }
}
restartPreview () ;
}
}
/∗ ∗
∗ Cambia l a v i s t a
∗/
private void changeGLSurfaceViewState ( )
{
Configuration config = getResources () . getConfiguration () ;
i f ( c o n f i g . o r i e n t a t i o n == C o n f i g u r a t i o n .ORIENTATION LANDSCAPE
&& ! mPausing && m F i r s t T i m e I n i t i a l i z e d ) {
Plataforma educativa basada en realidad aumentada y dispositivos móviles
381
C. Código Fuente
i f ( mGLSurfaceView == null ) i n i t i a l i z e G L S u r f a c e V i e w ( ) ;
} e l s e i f ( mGLSurfaceView != null ) {
finalizeGLSurfaceView () ;
}
}
/∗ ∗
∗ Inicializa la vista
∗/
private void i n i t i a l i z e G L S u r f a c e V i e w ( )
{
// i n i t ARToolkit .
i f ( a r T o o l k i t D r a w e r == null ) {
InputStream camePara = g e t R e s o u r c e s ( ) .
openRawResource (R. raw . camera para ) ;
// Obtenemos l o s p a t r o n e s
A r r a y L i s t <InputStream> p a t t = KnowledgeBase .
getInstance () . getPatterns ( getResources () ) ;
int [ ] width = new int [ p a t t . s i z e ( ) ] ;
f o r ( int i = 0 ; i < p a t t . s i z e ( ) ; i ++)
{
width [ i ] = 8 0 ;
}
a r T o o l k i t D r a w e r = new ARToolkitDrawer ( camePara ,
width , patt , mRenderer ) ;
// Para poder c r e a r a u d i o s
arToolkitDrawer . setContext ( this ) ;
}
FrameLayout frame = ( FrameLayout ) findViewById (R. i d . frame ) ;
mGLSurfaceView = new GLSurfaceView ( t h i s ) ;
mGLSurfaceView . setEGLConfigChooser ( 8 , 8 , 8 , 8 , 1 6 , 0 ) ;
mGLSurfaceView . g e t H o l d e r ( ) . setFormat ( PixelFormat .
TRANSLUCENT) ;
mGLSurfaceView . setZOrderOnTop ( true ) ;
mGLSurfaceView . s e t R e n d e r e r ( mRenderer ) ;
frame . addView ( mGLSurfaceView ) ;
}
/∗ ∗
∗ Finaliza la vista
∗/
private void f i n a l i z e G L S u r f a c e V i e w ( )
{
FrameLayout frame = ( FrameLayout ) findViewById (R. i d . frame ) ;
frame . removeView ( mGLSurfaceView ) ;
mGLSurfaceView = null ;
i f ( mMediaPlayer != null )
382
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
mMediaPlayer . r e l e a s e ( ) ;
mMediaPlayer = null ;
a r T o o l k i t D r a w e r = null ;
}
@Override
public void s u r f a c e C h a n g e d ( S u r f a c e H o l d e r h o l d e r , int format , int w,
int h )
{
i f ( h o l d e r . g e t S u r f a c e ( ) == null )
return ;
//Guardamos e l h o l d e r para un r e c u p e r a c i ó n p o s t e r i o r
mSurfaceHolder = h o l d e r ;
i f ( mCameraDevice == null )
{
/∗
∗ Para r e d u c i r e l tiempo , i n i c i a m o s l a v i s t a en o t r o h i l o
∗/
Thread s t a r t P r e v i e w T h r e a d = new Thread (new Runnable ( )
{
public void run ( ) {
try {
mStartPreviewFail = false ;
startPreview () ;
} catch ( E x c e p t i o n e ) {
i f ( "eng" . e q u a l s ( B u i l d .TYPE) ) {
throw new RuntimeException (
e) ;
}
m S t a r t P r e v i e w F a i l = true ;
}
}
}) ;
startPreviewThread . s t a r t () ;
// Nos aseguramos que e s t á i n i c i a d o
try {
startPreviewThread . j o i n () ;
i f ( mStartPreviewFail ) {
showCameraErrorAndFinish ( ) ;
return ;
}
} catch ( I n t e r r u p t e d E x c e p t i o n ex ) {}
}
i f ( mPausing | | i s F i n i s h i n g ( ) ) return ;
// S i l a primera i n i c i a l i z a c i ó n no terminó , e n v i a r un
mensaje para h a c e r l o d e s p ué s
if (! mFirstTimeInitialized ) {
Plataforma educativa basada en realidad aumentada y dispositivos móviles
383
C. Código Fuente
mHandler . sendEmptyMessage ( MessageWhat . FIRST TIME INIT . o r d i n a l ( )
);
} else {
initializeSecondTime () ;
}
}
@Override
public void s u r f a c e C r e a t e d ( S u r f a c e H o l d e r h o l d e r ) {
}
@Override
public void s u r f a c e D e s t r o y e d ( S u r f a c e H o l d e r h o l d e r ) {
stopPreview ( ) ;
mSurfaceHolder = null ;
}
/∗ ∗
∗ Apagamos l a cámara
∗/
private void closeCamera ( ) {
i f ( mCameraDevice != null ) {
CameraHolder . i n s t a n c e ( ) . r e l e a s e ( ) ;
mCameraDevice = null ;
mPreviewing = f a l s e ;
}
}
/∗ ∗
∗ Nos aseguramos de que l a cámara e s t á d i s p o n i b l e
∗ @throws CameraHardwareException En c a s o de que e l hardware de l a
cámara nos dé a l g ú n e r r o r
∗/
private void ensureCameraDevice ( ) throws CameraHardwareException {
i f ( mCameraDevice == null ) {
mCameraDevice = CameraHolder . i n s t a n c e ( ) . open ( ) ;
}
}
/∗ ∗
∗ Mostrar e l e r r o r de l a cámara y f i n a l i z a r
∗/
private void showCameraErrorAndFinish ( )
{
Resources r e s s = getResources () ;
com . a n d r o i d . camera . U t i l . show FatalErrorAndFini sh ( TFGARActivity . this ,
r e s s . g e t S t r i n g (R. s t r i n g . c a m e r a e r r o r t i t l e ) ,
r e s s . g e t S t r i n g (R. s t r i n g . c a n n o t c o n n e c t c a m e r a ) ) ;
}
/∗ ∗
∗ Se r e s t a u r a l a p r e v i e w
∗/
public void r e s t a r t P r e v i e w ( )
{
384
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
try {
startPreview () ;
} catch ( CameraHardwareException e ) {
showCameraErrorAndFinish ( ) ;
return ;
}
}
/∗ ∗
∗ Establecemos l a v i s t a
∗ @param h o l d e r H ol de r a e s t a b l e c e r
∗/
private void s e t P r e v i e w D i s p l a y ( S u r f a c e H o l d e r h o l d e r ) {
try {
mCameraDevice . s e t P r e v i e w D i s p l a y ( h o l d e r ) ;
} catch ( Throwable ex ) {
closeCamera ( ) ;
throw new RuntimeException ( " setPreviewDisplay
failed " , ex ) ;
}
}
/∗ ∗
∗ Iniciamos la v i s t a
∗ @throws CameraHardwareException En c a s o de e n c o n t r a r s e a l g ú n
problema con l a cámara d e l d i s p o s i t i v o
∗/
private void s t a r t P r e v i e w ( ) throws CameraHardwareException
{
i f ( mPausing | | i s F i n i s h i n g ( ) ) return ;
ensureCameraDevice ( ) ;
s e t P r e v i e w D i s p l a y ( mSurfaceHolder ) ;
i f ( ! mPreviewing )
setCameraParameters ( ) ;
mCameraDevice . s e t O n e S h o t P r e v i e w C a l l b a c k ( mPreviewCallback ) ;
try {
mCameraDevice . s t a r t P r e v i e w ( ) ;
} catch ( Throwable ex ) {
closeCamera ( ) ;
throw new RuntimeException ( " startPreview failed " ,
ex ) ;
}
mPreviewing = true ;
}
/∗ ∗
∗ Paramos l a v i s t a
∗/
private void s t o p P r e v i e w ( )
{
i f ( mCameraDevice != null && mPreviewing )
{
mCameraDevice . s e t O n e S h o t P r e v i e w C a l l b a c k ( null ) ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
385
C. Código Fuente
mCameraDevice . s t o p P r e v i e w ( ) ;
}
mPreviewing = f a l s e ;
}
/∗ ∗
∗ Se e s t a b l e c e n l o s p ar áme tr os de l a cámara
∗/
private void setCameraParameters ( )
{
mParameters = mCameraDevice . g e t P a r a m e t e r s ( ) ;
mParameters . s e t P r e v i e w S i z e ( 3 2 0 , 2 4 0 ) ;
mCameraDevice . s e t P a r a m e t e r s ( mParameters ) ;
}
/∗ ∗
∗ Reseteamos l a p a n t a l l a
∗/
private void r e s e t S c r e e n O n ( )
{
mHandler . removeMessages ( MessageWhat . CLEAR SCREEN DELAY . o r d i n a l ( ) ) ;
getWindow ( ) . c l e a r F l a g s ( WindowManager . LayoutParams .
FLAG KEEP SCREEN ON) ;
}
/∗ ∗
∗ Mantenemos l a p a n t a l l a en e s p e r a
∗/
private void keepScreenOnAwhile ( )
{
mHandler . removeMessages ( MessageWhat . CLEAR SCREEN DELAY . o r d i n a l ( ) ) ;
getWindow ( ) . addFlags ( WindowManager . LayoutParams . FLAG KEEP SCREEN ON
);
mHandler . sendEmptyMessageDelayed ( MessageWhat . CLEAR SCREEN DELAY .
o r d i n a l ( ) , SCREEN DELAY) ;
}
@Override
public void o n C l i c k ( View v ) {
;;
}
//−−−−−−−−−−−−−−−−−−−−−−− Movimientos −−−−−−−−−−−−−−−−−−−−−−−−
private s t a t i c f i n a l int INVALID POINTER ID = −1;
386
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
private f l o a t mLastTouchX ;
private f l o a t mLastTouchY ;
private int m A c t i v e P o i n t e r I d = INVALID POINTER ID ;
private S c a l e G e s t u r e D e t e c t o r m S c a l e D e t e c t o r ;
private f l o a t mScaleFactor = 1 . f ;
@Override
public boolean onTouchEvent ( MotionEvent e v e n t )
{
// Let t h e S c a l e G e s t u r e D e t e c t o r i n s p e c t a l l e v e n t s .
m S c a l e D e t e c t o r . onTouchEvent ( e v e n t ) ;
switch ( e v e n t . g e t A c t i o n ( ) )
{
case MotionEvent .ACTION DOWN:
{
f i n a l f l o a t x = e v e n t . getX ( ) ;
f i n a l f l o a t y = e v e n t . getY ( ) ;
mLastTouchX = x ;
mLastTouchY = y ;
mActivePointerId = event . getPointerId (0) ;
break ;
}
case MotionEvent .ACTION MOVE:
{
f i n a l int p o i n t e r I n d e x = e v e n t .
findPointerIndex ( mActivePointerId ) ;
f i n a l f l o a t x = e v e n t . getX ( p o i n t e r I n d e x ) ;
f i n a l f l o a t y = e v e n t . getY ( p o i n t e r I n d e x ) ;
// Only move i f t h e S c a l e G e s t u r e D e t e c t o r i s n ’ t
processing a gesture .
i f ( ! mScaleDetector . i s I n P r o g r e s s ( ) )
{
f i n a l f l o a t dx = x − mLastTouchX ;
f i n a l f l o a t dy = y − mLastTouchY ;
U t i l . u p d a t e P o s i t i o n O b j e c t s S c e n e ( s c e n e , dx , dy ,
mLastOrientation ) ;
}
mLastTouchX = x ;
mLastTouchY = y ;
break ;
}
case MotionEvent . ACTION POINTER UP : {
f i n a l int p o i n t e r I n d e x = ( e v e n t . g e t A c t i o n ( ) &
MotionEvent . ACTION POINTER INDEX MASK)
>> MotionEvent . ACTION POINTER INDEX SHIFT ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
387
C. Código Fuente
f i n a l int p o i n t e r I d = e v e n t . g e t P o i n t e r I d ( p o i n t e r I n d e x ) ;
i f ( p o i n t e r I d == m A c t i v e P o i n t e r I d ) {
// This was our a c t i v e p o i n t e r g o i n g up . Choose a
new
// a c t i v e p o i n t e r and a d j u s t a c c o r d i n g l y .
f i n a l int n ew P oi n te rI n de x = p o i n t e r I n d e x == 0 ? 1 :
0;
mLastTouchX = e v e n t . getX ( n ew P oi n te r In de x ) ;
mLastTouchY = e v e n t . getY ( n ew P oi n te r In de x ) ;
mActivePointerId = event . getPointerId (
n ew P oi n te rI n de x ) ;
}
break ;
}
case MotionEvent . ACTION UP :
{
mActivePointerId =
INVALID POINTER ID ; break ; }
case MotionEvent .ACTION CANCEL:
{
m A c t i v e P o i n t e r I d = INVALID POINTER ID ;
break ; }
case MotionEvent .ACTION POINTER DOWN:
{
break ;
}
}
return true ;
}
/∗ ∗
∗ C l a s e que g e s t i o n a e l g e s t o de e s c a l a r un o b j e t o
∗ @author Iván Lorenzo Rubio
∗
∗/
private c l a s s S c a l e L i s t e n e r extends S c a l e G e s t u r e D e t e c t o r .
SimpleOnScaleGestureListener
{
@Override
public boolean o n S c a l e ( S c a l e G e s t u r e D e t e c t o r d e t e c t o r )
{
mScaleFactor ∗= d e t e c t o r . g e t S c a l e F a c t o r ( ) ;
// Evitamos que e l o b j e t o s e a muy grande o muy peque ño
mScaleFactor = Math . max ( 0 . 1 f , Math . min ( mScaleFactor , 5 . 0 f ) ) ;
return true ;
}
}
//−−−−−−−−−−−−−−−−−−−−−−− FIN Movimientos −−−−−−−−−−−−−−−−−−−−−−−−
388
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
//−−−−−−−−−−−−−−−−−−−−−−− Escena min3d −−−−−−−−−−−−−−−−−−−−−−−−
/∗ ∗
∗ Escena que mantendrá t o d o s l o s o b j e t o s
∗/
public Scene s c e n e ;
/∗ ∗
∗ Menajador de i n i c i o de l a e s c e n a
∗/
protected Handler i n i t S c e n e H a n d e r ;
/∗ ∗
∗ Manejador de a c t u a l i z a c i ó n de l a e sc na
∗/
protected Handler updateSceneHander ;
f i n a l Runnable i n i t S c e n e R u n n a b l e = new Runnable ( )
{
public void run ( ) {
onInitScene () ;
}
};
f i n a l Runnable updateSceneRunnable = new Runnable ( )
{
public void run ( ) {
onUpdateScene ( ) ;
}
};
/∗ ∗
∗ I n i c i a l i z a m o s l o s o b j e t o s 3d , e s t a b l e c e m o s s u s p r o p i e d a d e s y
añadimos l o s o b j e t o s
∗ a l a escena
∗/
@Override
public void i n i t S c e n e ( )
{
s c e n e . l i g h t s ( ) . add (new L i g h t ( ) ) ;
s c e n e . camera ( ) . frustum . zFar ( 1 0 0 0 0 . 0 f ) ;
// s c e n e . camera ( ) . f r u s t u m . s h o r t S i d e L e n g t h ( 0 . 7 7 f ) ;
// Añadimos l o s o b j e t o s a l a e s c e n a
f o r ( Object3d o b j e c t : KnowledgeBase . g e t I n s t a n c e ( ) .
getObjectsToScene ( getResources ( ) ) )
s c e n e . addChild ( o b j e c t ) ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
389
C. Código Fuente
}
/∗ ∗
∗ C u a l q u i e r m a n i p u l a c i ó n de l a e s c e n a y de l o s o b j e t o s 3d i r á a q uı́
.
∗ En n u e s t r o c a s o tan s o l o m o d i f i c a r e m o s l a e s c a l a por a q u e l l a que
t e n g a n en cada momento .
∗/
@Override
public void updateScene ( )
{
U t i l . updateZoomObjectsScene ( s c e n e , mScaleFactor ) ;
}
/∗ ∗
∗ Llamado j u s t o d e s p ué s de i n i c i a r s e l a e s c e n a
∗/
public void o n I n i t S c e n e ( )
{
}
/∗ ∗
∗ Llamado j u s t o d e s p ué s de a c t u a l i z a r s e l a e s c e n a
∗/
public void onUpdateScene ( )
{
}
/∗ ∗
∗ @see min3d . i n t e r f a c e s . I S c e n e C o n t r o l l e r#g e t I n i t S c e n e H a n d l e r ( )
∗/
@Override
public Handler g e t I n i t S c e n e H a n d l e r ( )
{
return i n i t S c e n e H a n d e r ;
}
/∗ ∗
∗ @see min3d . i n t e r f a c e s . I S c e n e C o n t r o l l e r#g e t U p d a t e S c e n e H a n d l e r ( )
∗/
@Override
public Handler getUpdateSceneHandler ( )
{
return updateSceneHander ;
}
/∗ ∗
∗ @see min3d . i n t e r f a c e s . I S c e n e C o n t r o l l e r#g e t I n i t S c e n e R u n n a b l e ( )
∗/
@Override
public Runnable g e t I n i t S c e n e R u n n a b l e ( )
{
return i n i t S c e n e R u n n a b l e ;
390
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
}
/∗ ∗
∗ @see min3d . i n t e r f a c e s . I S c e n e C o n t r o l l e r#g e t U p d a t eS c e n e R u n na b l e ( )
∗/
@Override
public Runnable getUpdateSceneRunnable ( )
{
return updateSceneRunnable ;
}
//−−−−−−−−−−−−−−−−−−−−−−− FIN Escena min3d −−−−−−−−−−−−−−−−−−−−−−−−
//−−−−−−−−−−−−−−−−−−−−−−− LOCATION −−−−−−−−−−−−−−−−−−−−−−−−
/∗ ∗
∗ E s t a b l e c e m o s e l e s t a d o de l a a p l i c a c i ó n : Marker o GPS y en c a s o
de s e r l o c a l i z a c i ó n , l o mandamos d i b u j a r
∗/
@Override
public void update ( LocationData data )
{
a r S t a t u s = data . g e t S t a t u s ( ) ;
i f ( data . g e t S t a t u s ( ) == ARStatus . AR GPS)
{
i f ( a r T o o l k i t D r a w e r != null )
{
a r T o o l k i t D r a w e r . draw ( this , new int [ ] { data .
getObject ( ) . getOrder ( ) }) ;
}
}
}
}
Paquete gui C.44: TFGARActivity.java
ARToolkitDrawer.java
package com . i v a n l o r e n z o . g u i ;
import
import
import
import
import
import
import
import
a n d r o i d . app . A l e r t D i a l o g ;
a n d r o i d . app . D i a l o g ;
a n d r o i d . c o n t e n t . Context ;
a n d r o i d . o s . SystemClock ;
a n d r o i d . u t i l . Log ;
a n d r o i d . view . G r a v i t y ;
a n d r o i d . view . WindowManager ;
a n d r o i d . w i d g e t . TextView ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
391
C. Código Fuente
import j a v a . i o . InputStream ;
import j a v a . u t i l . A r r a y L i s t ;
import
import
import
import
import
com . i v a n l o r e n z o . data . KnowledgeBase ;
com . i v a n l o r e n z o . data . o b j e c t s . a u d i o . Audio ;
com . i v a n l o r e n z o . data . o b j e c t s . a u d i o . MediaPlayerAdapter ;
com . i v a n l o r e n z o . l o c a t i o n . LocationData ;
com . i v a n l o r e n z o . l o c a t i o n . o b s e r v e r . IARObserver ;
import min3d . c o r e . Renderer ;
import
import
import
import
import
import
import
import
import
jp . nyatla .
jp . nyatla .
jp . nyatla .
jp . nyatla .
jp . nyatla .
jp . nyatla .
jp . nyatla .
jp . nyatla .
jp . nyatla .
nyartoolkit
nyartoolkit
nyartoolkit
nyartoolkit
nyartoolkit
nyartoolkit
nyartoolkit
nyartoolkit
nyartoolkit
. NyARException ;
. c o r e . NyARCode ;
. c o r e . param . NyARParam ;
. c o r e . r a s t e r . rgb . NyARRgbRaster RGB ;
. c o r e . transmat . NyARTransMatResult ;
. c o r e . t y p e s . NyARBufferType ;
. c o r e . t y p e s . matrix . NyARDoubleMatrix44 ;
. d e t e c t o r . NyARDetectMarker ;
. j o g l . u t i l s . NyARGLUtil ;
/∗ ∗
∗ C l a s e r e s p o n s a b l e de d i b u j a r l o s o b j e t o s . Está basada en min3d
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s ARToolkitDrawer
{
private int mNumPatt ;
private s t a t i c f i n a l int MARKER MAX = 8 ;
private NyARDetectMarker nya = null ;
private NyARRgbRaster RGB r a s t e r = null ;
private NyARParam ar param = null ;
private NyARCode [ ] a r c o d e ;
private double marker width [ ] ;
private NyARTransMatResult a r t r a n s m a t r e s u l t = new
NyARTransMatResult ( ) ;
/∗ ∗
∗ Render de min3d
∗/
private Renderer mRenderer ;
// p r i v a t e MediaPlayer mMediaPlayer = n u l l ;
private MediaPlayerAdapter mediaPlayer = null ;
private Context c o n t e x t ;
private D i a l o g d i a l o g = null ;
static {
System . l o a d L i b r a r y ( " yuv420sp2rgb " ) ;
}
392
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
public s t a t i c native void decodeYUV420SP ( int [ ] rgb , byte [ ] yuv420sp
, int width , int h e i g h t , int type ) ;
public s t a t i c native void decodeYUV420SP ( byte [ ] rgb , byte [ ]
yuv420sp , int width , int h e i g h t , int type ) ;
/∗ ∗
∗ Constructor
∗ @param camePara Parámetros de l a cámara
∗ @param w i d t h Ancho de l o s p a t r o n e s
∗ @param p a t t P a t r o n e s de l a a p l i c a c i ó n
∗ @param mRenderer El r e n d e r
∗/
public ARToolkitDrawer ( InputStream camePara , int [ ] width , A r r a y L i s t
<InputStream> patt , Renderer mRenderer )
{
t h i s . mRenderer = mRenderer ;
t h i s . i n i t i a l i z a t i o n ( camePara , width , p a t t ) ;
}
/∗ ∗
∗ I n i c i a l i z a l o s e l e m e n t o s de l a c l a s e
∗ @param camePara Parámetros de l a cámara
∗ @param w i d t h Ancho de l o s p a t r o n e s
∗ @param p a t t L i s t a con l o s p a t r o n e s
∗/
private void i n i t i a l i z a t i o n ( InputStream camePara , int [ ] width ,
A r r a y L i s t <InputStream> p a t t )
{
mNumPatt = p a t t . s i z e ( ) ;
marker width = new double [ mNumPatt ] ;
a r c o d e = new NyARCode [ mNumPatt ] ;
try {
f o r ( int i = 0 ; i < mNumPatt ; i ++)
{
marker width [ i ] = width [ i ] ;
a r c o d e [ i ] = new NyARCode ( 1 6 , 1 6 ) ;
a r c o d e [ i ] . loadARPatt ( p a t t . g e t ( i ) ) ;
}
ar param = new NyARParam ( ) ;
ar param . loadARParam ( camePara ) ;
} catch ( E x c e p t i o n e ) {
Log . e ( "nyar" , " resource loading failed " , e ) ;
}
}
/∗ ∗
∗ Se crean l o s r e c u r s o s
∗ @param w Ancho de l a p a n t a l l a
∗ @param h A l t u r a de l a p a n t a l l a
∗/
private void createNyARTool ( int w, int h )
{
Plataforma educativa basada en realidad aumentada y dispositivos móviles
393
C. Código Fuente
try {
i f ( nya == null && mNumPatt>0)
{
ar param . c h a n g e S c r e e n S i z e (w, h ) ;
nya = new NyARDetectMarker ( ar param ,
a r c o d e , marker width , mNumPatt ,
NyARBufferType . BYTE1D B8G8R8 24 ) ;
nya . setContinueMode ( true ) ;
}
Log . d ( "nyar" , " resources have been loaded " ) ;
} catch ( E x c e p t i o n e ) {
Log . e ( "nyar" , " resource loading failed " , e ) ;
}
}
/∗ ∗
∗
∗ @param i a r p a r a m
∗ @param o g l p r o j e c t i o n
∗/
public s t a t i c void toCameraFrustumRHf (NyARParam i arparam , f l o a t [ ]
o gl projection )
{
double [ ] mf = new double [ 1 6 ] ;
NyARGLUtil . toCameraFrustumRH ( i arparam , NyARGLUtil .
SCALE FACTOR toCameraFrustumRH NYAR2 , 1 0 , 1 0 0 0 0 , mf ) ;
f o r ( int i = 0 ; i < mf . l e n g t h ; i ++) {
o g l p r o j e c t i o n [ i ] = ( f l o a t ) mf [ i ] ;
}
}
/∗ ∗
∗
∗ @param i n y r e s u l t
∗ @param o g l r e s u l t
∗/
public s t a t i c void toCameraViewRHf ( NyARDoubleMatrix44 i n y r e s u l t ,
float [ ] o g l r e s u l t )
{
double [ ] mf = new double [ 1 6 ] ;
NyARGLUtil . toCameraViewRH ( i n y r e s u l t , NyARGLUtil .
SCALE FACTOR toCameraViewRH NYAR2 , mf ) ;
f o r ( int i = 0 ; i < mf . l e n g t h ; i ++) {
o g l r e s u l t [ i ] = ( f l o a t ) mf [ i ] ;
}
}
/∗ ∗
∗ Método que d e t e c t a l o s p a t r o n e s y s i l o s e n c u e n t r a p i n t a l o s
objetos
∗ @param d a t a Datos e n v i a d o s para p i n t a r
394
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
∗/
public void draw ( byte [ ] data ) {
i f ( data == null ) {
Log . d ( "AR draw" , "data= null" ) ;
return ;
}
Log . d ( "AR draw" , "data. length = " + data . l e n g t h ) ;
int width = 3 2 0 ;
int h e i g h t = 2 4 0 ;
// s t a r t c o o r d i n a t e s c a l c u l a t i o n .
byte [ ] buf = new byte [ width ∗ h e i g h t ∗ 3 ] ;
// assume YUV420SP
long time1 = SystemClock . u p t i m e M i l l i s ( ) ;
// c o n v e r t YUV420SP t o RGB24
decodeYUV420SP ( buf , data , width , h e i g h t , 1 ) ;
long time2 = SystemClock . u p t i m e M i l l i s ( ) ;
Log . d ( " ARToolkitDrawer " , "RGB decode time: " + ( time2 −
time1 ) + "ms" ) ;
float [ ] [ ]
r e s u l t f = new f l o a t [MARKER MAX] [ 1 6 ] ;
int f o u n d m a r k e r s = 0 ;
int a r c o d e i n d e x [ ] = new int [MARKER MAX] ;
createNyARTool ( width , h e i g h t ) ;
// Marker d e t e c t i o n
try {
Log . d ( "AR draw" , " Marker detection ." ) ;
r a s t e r = new NyARRgbRaster RGB ( width , h e i g h t ) ;
r a s t e r . w r a p B u f f e r ( buf ) ;
i f ( nya != null )
f o u n d m a r k e r s = nya . d e t e c t M a r k e r L i t e ( r a s t e r
, 100) ;
} catch ( NyARException e ) {
Log . e ( "AR draw" , " marker detection failed " , e ) ;
return ;
}
boolean i s D e t e c t = f a l s e ;
int o b j e c t S o u n d = 0 ;
// Se p i n t a r á un o b j e t o s i s e e n c u e n t r a e l p a t r ó n
i f ( found markers > 0)
{
// P r o j e c t i o n t r a n s f o r m a t i o n .
f l o a t [ ] cameraRHf = new f l o a t [ 1 6 ] ;
toCameraFrustumRHf ( ar param , cameraRHf ) ;
i f ( f o u n d m a r k e r s > MARKER MAX)
f o u n d m a r k e r s = MARKER MAX;
f o r ( int i = 0 ; i < f o u n d m a r k e r s ; i ++) {
Plataforma educativa basada en realidad aumentada y dispositivos móviles
395
C. Código Fuente
i f ( nya . g e t C o n f i d e n c e ( i ) < 0 . 6 0 f )
continue ;
try {
a r c o d e i n d e x [ i ] = nya .
getARCodeIndex ( i ) ;
objectSound = a r c o d e i n d e x [ i ] ;
NyARTransMatResult t r a n s m a t r e s u l t
= ar transmat result ;
nya . getTransmationMatrix ( i ,
transmat result ) ;
toCameraViewRHf ( t r a n s m a t r e s u l t ,
resultf [ i ]) ;
i s D e t e c t = true ;
} catch ( NyARException e ) {
Log . e ( "AR draw" , " getCameraViewRH
failed " , e ) ;
return ;
}
}
/∗
Log . d (”AR draw ” , ”cameraRHf : ” + cameraRHf [ 0 ] + ” ,
”
+ cameraRHf [ 1 ] + ” , ” + cameraRHf [ 2 ] + ” , ”
+ cameraRHf [ 3 ] + ” , ” + cameraRHf [ 4 ] + ” , ”
+ cameraRHf [ 5 ] + ” , ” + cameraRHf [ 6 ] + ” , ”
+ cameraRHf [ 7 ] + ” , ” + cameraRHf [ 8 ] + ” , ”
+ cameraRHf [ 9 ] + ” , ” + cameraRHf [ 1 0 ] + ” , ”
+ cameraRHf [ 1 1 ] + ” , ” + cameraRHf [ 1 2 ] + ” , ”
+ cameraRHf [ 1 3 ] + ” , ” + cameraRHf [ 1 4 ] + ” , ”
+ cameraRHf [ 1 5 ] ) ;
Log . d (”AR draw ” , ” r e s u l t f : ” + r e s u l t f [ 0 ] [ 0 ] + ” , ”
+ resultf [0][1] + ”, ” + resultf [0][2] + ”, ”
+ resultf [0][3] + ”, ” + resultf [0][4] + ”, ”
+ resultf [0][5] + ”, ” + resultf [0][6] + ”, ”
+ resultf [0][7] + ”, ” + resultf [0][8] + ”, ”
+ resultf [0][9] + ”, ” + resultf [0][10] + ”, ”
+ resultf [0][11] + ”, ” + resultf [0][12] + ”, ”
+ resultf [0][13] + ”, ” + resultf [0][14] + ”, ”
+ resultf [0][15]) ;
∗/
mRenderer . o b j e c t P o i n t C h a n g e d ( found markers ,
a r c o d e i n d e x , r e s u l t f , cameraRHf ) ;
} else {
Log . d ( "AR draw" , "not exist marker ." ) ;
mRenderer . o b j e c t C l e a r ( ) ;
}
if ( isDetect )
{
Audio a u d i o = null ;
i f ( KnowledgeBase . g e t I n s t a n c e ( ) . g e t O b j e c t s ( ) . s i z e ( )
> objectSound )
396
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
{
a u d i o = KnowledgeBase . g e t I n s t a n c e ( )
. getObjects ( ) . get ( objectSound ) .
getAudio ( ) ;
i f ( d i a l o g==null | | ! d i a l o g .
isShowing ( ) )
dialog = getDescriptionDialog (
KnowledgeBase .
getInstance () .
getObjects () . get
( objectSound ) .
getDescription ()
);
}
i f ( a u d i o == null )
{
i f ( mediaPlayer != null )
mediaPlayer . s t o p ( ) ;
}
else
{
// C r e a r l o en c a s o de que e l p a t r ó n t e n g a
sonido asociado
i f ( mediaPlayer == null )
mediaPlayer = a u d i o . g e t M e d i a P l a y e r (
context ) ;
e l s e i f ( mediaPlayer != null && mediaPlayer
. getResID ( ) == a u d i o . g e t I d ( ) )
mediaPlayer . p l a y ( ) ;
e l s e i f ( mediaPlayer != null && mediaPlayer
. getResID ( ) != a u d i o . g e t I d ( ) )
{
mediaPlayer . s t o p ( ) ;
mediaPlayer = a u d i o . g e t M e d i a P l a y e r (
context ) ;
}
}
}
else
{
i f ( d i a l o g != null )
dialog . cancel () ;
i f ( mediaPlayer != null )
mediaPlayer . s t o p ( ) ;
}
}
Plataforma educativa basada en realidad aumentada y dispositivos móviles
397
C. Código Fuente
//FIXME
private D i a l o g g e t D e s c r i p t i o n D i a l o g ( S t r i n g t e x t )
{
A l e r t D i a l o g . B u i l d e r b u i l d e r = new A l e r t D i a l o g . B u i l d e r (
context ) ;
b u i l d e r . setMessage ( text ) ;
dialog = builder . create () ;
WindowManager . LayoutParams WMLP = d i a l o g . getWindow ( ) .
getAttributes () ;
WMLP. g r a v i t y = ( G r a v i t y .BOTTOM | G r a v i t y . LEFT) ;
WMLP. x = 0 ;
WMLP. y = 0 ;
d i a l o g . getWindow ( ) . s e t A t t r i b u t e s (WMLP) ;
d i a l o g . getWindow ( ) . s e t F l a g s ( WindowManager . LayoutParams .
FLAG NOT TOUCH MODAL,
WindowManager . LayoutParams .FLAG NOT TOUCH MODAL) ;
d i a l o g . getWindow ( ) . c l e a r F l a g s ( WindowManager . LayoutParams .
FLAG DIM BEHIND) ;
d i a l o g . show ( ) ;
//
//
//
//
//
//
d i a l o g = new D i a l o g ( c o n t e x t ) ;
WindowManager . LayoutParams WMLP = d i a l o g . getWindow ( ) .
getAttributes () ;
WMLP. x = 5 0 0 ;
// x p o s i t i o n
WMLP. y = 5 0 0 ;
// y p o s i t i o n
d i a l o g . getWindow ( ) . s e t F l a g s ( WindowManager . LayoutParams .
FLAG NOT TOUCH MODAL,
//
WindowManager . LayoutParams .FLAG NOT TOUCH MODAL) ;
//
//
d i a l o g . getWindow ( ) . s e t A t t r i b u t e s (WMLP) ;
//
d i a l o g . show ( ) ;
TextView textView = ( TextView ) d i a l o g . findViewById ( a n d r o i d .
R. i d . message ) ;
// TextView t e x t V i e w = new TextView ( c o n t e x t ) ;
textView . setMaxLines ( 4 ) ;
textView . s e t T e x t S i z e ( 1 1 ) ;
// t e x t V i e w . s e t T e x t ( t e x t ) ;
// d i a l o g . addContentView ( t e x t V i e w , new LayoutParams ( LayoutParams
.WRAP CONTENT, LayoutParams .WRAP CONTENT) ) ;
398
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
return d i a l o g ;
}
/∗ ∗
∗ Método para p i n t a r un o b j e t o en e l c e n t r o de l a p a n t a l l a s i n
f a l t a de d e t e c t a r ning ún p a t r ó n
∗ @param o b s e r v e r Datos a c e r c a de l a l o c a l i z a c i ?n a c t u a l
∗ @param o b j e c t s O b j e t o s a p i n t a r
∗/
public void draw ( IARObserver<LocationData> o b s e r v e r , int [ ] o b j e c t s )
{
mRenderer . o b j e c t C l e a r ( ) ;
f l o a t [ ] [ ] r e s u l t f = new f l o a t [ ] [ ]
{ { 0 . 9 9 8 1 1 7 7 4 f , 0 . 0 0 2 6 6 7 6 3 7 5 f , −0.06126828 f ,
0 . 0 f , −0.05234584 f , 0 . 5 5 7 5 5 7 0 5 f ,
−0.8284866 f , 0 . 0 f ,
0.031950463 f , 0.83013433 f ,
0 . 5 5 6 6 4 7 2 4 f , 0 . 0 f , −0.02831533 f ,
−0.26701164 f , −5.6218963 f , 1 . 0 f
},
{0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0} ,
{0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0} ,
{0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0} ,
{0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0} ,
{0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0} ,
{0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0} ,
{0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0}
};
int a r c o d e i n d e x [ ] = new int [MARKER MAX] ;
boolean i s D e t e c t = f a l s e ;
int o b j e c t S o u n d = 0 ;
f l o a t [ ] cameraRHf = new f l o a t [ ] { 2 . 1 9 7 3 4 f , 0 . 0 f , 0 . 0 f , 0 . 0 f
, 0.0 f , 3.038051 f , 0.0 f , 0.0 f , 0.007836991 f , 0.010460251
f , −1.002002 f , −1.0 f , 0 . 0 f , 0 . 0 f , −20.02002 f , 0 . 0 1 2 f } ;
f o r ( int i = 0 ; i < o b j e c t s . l e n g t h ; i ++)
{
ar code index [ i ] = objects [ i ] ;
Log . i ( " ARcode " , a r c o d e i n d e x [ i ] + " : " +
i);
objectSound = a r c o d e i n d e x [ i ] ;
i s D e t e c t = true ;
}
mRenderer . o b j e c t P o i n t C h a n g e d ( o b j e c t s . l e n g t h , a r c o d e i n d e x ,
r e s u l t f , cameraRHf ) ;
if ( isDetect )
{
Audio a u d i o = null ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
399
C. Código Fuente
i f ( KnowledgeBase . g e t I n s t a n c e ( ) . g e t O b j e c t s ( ) . s i z e ( )
> objectSound )
{
a u d i o = KnowledgeBase . g e t I n s t a n c e ( ) .
g e t O b j e c t s ( ) . g e t ( o b j e c t S o u n d ) . getAudio ( )
;
}
i f ( a u d i o == null )
{
try { Thread . s l e e p ( 1 0 0 0 0 ) ; }
catch ( I n t e r r u p t e d E x c e p t i o n e ) {}
LocationData data = LocationData .
getInstance () ;
data . s e t S t a t u s ( ARStatus . AR Marker ) ;
o b s e r v e r . update ( data ) ;
i f ( mediaPlayer != null )
mediaPlayer . s t o p ( ) ;
}
else
{
// C r e a r l o en c a s o de que e l p a t r ?n t e n g a
sonido asociado
i f ( mediaPlayer == null )
{
mediaPlayer = a u d i o . g e t M e d i a P l a y e r (
context ) ;
}
e l s e i f ( mediaPlayer != null && mediaPlayer
. getResID ( ) == a u d i o . g e t I d ( ) )
mediaPlayer . p l a y ( ) ;
e l s e i f ( mediaPlayer != null && mediaPlayer
. getResID ( ) != a u d i o . g e t I d ( ) )
{
mediaPlayer . s t o p ( ) ;
mediaPlayer = a u d i o . g e t M e d i a P l a y e r (
context ) ;
}
mediaPlayer . addObserver ( o b s e r v e r ) ;
}
}
else
{
i f ( mediaPlayer != null )
mediaPlayer . s t o p ( ) ;
}
}
400
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
/∗ ∗
∗ Establece el contexto
∗ @param c o n t e x t C o n t e x t o de l a a p l i c a c i ó n
∗/
public void s e t C o n t e x t ( Context c o n t e x t )
{
this . context = context ;
}
}
Paquete gui C.45: ARToolkitDrawer.java
Util.java
package com . i v a n l o r e n z o . g u i ;
import j a v a . i o . IOException ;
import j a v a . u t i l . Map ;
import
import
import
import
o r g . apache . h t t p . HttpResponse ;
o r g . apache . h t t p . H t t p S t a t u s ;
o r g . apache . h t t p . c l i e n t . methods . HttpGet ;
o r g . apache . h t t p . impl . c l i e n t . D e f a u l t H t t p C l i e n t ;
import
import
import
import
a n d r o i d . c o n t e n t . Context ;
android . content . SharedPreferences ;
android . p r e f e r e n c e . PreferenceManager ;
min3d . c o r e . Scene ;
/∗ ∗
∗ C l a s e de u t i l i d a d e s que c o n t e n d r á un c o n j u n t o de métodos e s t á t i c o s de
ayuda a o t r a s c l a s e s
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s U t i l
{
/∗ ∗
∗ Método que cambia l a o r i e n t a c i ó n de l a p a n t a l l a r e d o n d e á n d o l a
∗ @param o r i e n t a t i o n I n p u t O r i e n t a c i ó n de l a p a n t a l l a
∗ @return La o r i e n t a c i ó n redondeada
∗/
public s t a t i c int r o u n d O r i e n t a t i o n ( int o r i e n t a t i o n I n p u t )
{
int o r i e n t a t i o n = o r i e n t a t i o n I n p u t ;
i f ( o r i e n t a t i o n == −1)
orientation = 0;
orientation = orientation % 360;
int r e t V a l ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
401
C. Código Fuente
i f ( orientation < (0∗90)
retVal = 0;
} else i f ( o r i e n t a t i o n <
retVal = 90;
} else i f ( o r i e n t a t i o n <
retVal = 180;
} else i f ( o r i e n t a t i o n <
retVal = 270;
} else {
retVal = 0;
}
+ 45) {
(1∗90) + 45) {
(2∗90) + 45) {
(3∗90) + 45) {
return r e t V a l ;
}
/∗ ∗
∗ A c t u a l i z a l a s p o s i c i o n e s de t o d o s l o s o b j e t o s de l a e s c e n a
∗ @param s c e n e Escena que c o n t e n d r á l o s o b j e t o s
∗ @param mPosX El d e s p l a z a m i e n t o en e l e j e de l a s X
∗ @param mPosY El d e s p l a z a m i e n t o en e l e j e de l a s Y
∗ @param m L a s t O r i e n t a t i o n La o r i e n t a c i ó n de l a p a n t a l l a
∗/
public s t a t i c void u p d a t e P o s i t i o n O b j e c t s S c e n e ( Scene s c e n e , f l o a t
mPosX , f l o a t mPosY , int m L a s t O r i e n t a t i o n )
{
f o r ( int i =0; i <s c e n e . numChildren ( ) ; i ++)
{
i f ( m L a s t O r i e n t a t i o n == 0 )
{
s c e n e . g e t C h i l d A t ( i ) . p o s i t i o n ( ) . x += mPosX
/100;
s c e n e . g e t C h i l d A t ( i ) . p o s i t i o n ( ) . y −= mPosY
/100;
}
e l s e i f ( m L a s t O r i e n t a t i o n == 1 8 0 )
{
s c e n e . g e t C h i l d A t ( i ) . p o s i t i o n ( ) . x −= mPosX
/100;
s c e n e . g e t C h i l d A t ( i ) . p o s i t i o n ( ) . y += mPosY
/100;
}
e l s e i f ( m L a s t O r i e n t a t i o n == 9 0 )
{
s c e n e . g e t C h i l d A t ( i ) . p o s i t i o n ( ) . x −= mPosY
/100;
s c e n e . g e t C h i l d A t ( i ) . p o s i t i o n ( ) . y −= mPosX
/100;
}
e l s e i f ( m L a s t O r i e n t a t i o n == 2 7 0 )
{
s c e n e . g e t C h i l d A t ( i ) . p o s i t i o n ( ) . x += mPosY
/100;
s c e n e . g e t C h i l d A t ( i ) . p o s i t i o n ( ) . y += mPosX
/100;
}
402
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
}
}
/∗ ∗
∗ A c t u a l i z a l a e s c a l a de t o d o s l o s o b j e t o s de l a e s c e n a
∗ @param s c e n e Escena
∗ @param mScaleFactor El f a c t o r de e s c a l a a a p l i c a r
∗/
public s t a t i c void updateZoomObjectsScene ( Scene s c e n e , f l o a t
mScaleFactor )
{
f o r ( int i =0; i <s c e n e . numChildren ( ) ; i ++)
{
scene . getChildAt ( i ) . s c a l e ( ) . x = scene . getChildAt ( i ) . s c a l e ( )
.y =
scene . getChildAt ( i ) . s c a l e ( ) . z =
mScaleFactor ;
}
}
/∗ ∗
∗ O b t i e n e l a s p r e f e r e n c i a s . O b i e n l a s d e f i n i d a s y g u a r d a d a s por
e l u s u a r i o o en c a s o de no e s t a r d i p s o n i b l e s , c a r g a unas por
defecto
∗ @param c t x El c o n t e x t o de l a a p l i c a c i ó n
∗ @return Las p r e f e r e n c i a s d e l u s u a r i o
∗/
public s t a t i c S h a r e d P r e f e r e n c e s g e t S h a r e d P r e f e r e n c e s ( Context c t x )
{
SharedPreferences p r e f e r e n c e s = ctx . getSharedPreferences (
c t x . g e t R e s o u r c e s ( ) . g e t S t r i n g (R. s t r i n g .
FILE PREFERENCES) ,
Context .MODE PRIVATE) ;
if (
! checkURL ( p r e f e r e n c e s . g e t S t r i n g ( " URL_PATTERNS " , "" ) )
||
! checkURL ( p r e f e r e n c e s . g e t S t r i n g ( "
URL_OBJECTS " , "" ) ) )
{
SharedPreferences . Editor editor = preferences . edit
() ;
editor . clear () ;
P r e f e r e n c e M a n a g e r . s e t D e f a u l t V a l u e s ( ctx , R. xml .
p r e f e r e n c e s , true ) ;
SharedPreferences defaultPreferences =
PreferenceManager . getDefaultSharedPreferences (
ctx ) ;
f o r (Map . Entry<S t r i n g , ?> e n t r y :
defaultPreferences . getAll () . entrySet () )
{
Plataforma educativa basada en realidad aumentada y dispositivos móviles
403
C. Código Fuente
e d i t o r . p u t S t r i n g ( e n t r y . getKey ( ) , ( S t r i n g )
entry . getValue ( ) ) ;
}
e d i t o r . commit ( ) ;
}
return p r e f e r e n c e s ;
}
/∗ ∗
∗ Método que comprueba s i una de t er mi na d a URL e s t á d i s p o n i b l e
∗ @param u r l D i r e c c i ó n a comprobar s i e s t á a c t i v a
∗ @return Verdado s i e s t á d i s p o n i b l e , f a l s o en c a s o c o n t r a r i o
∗/
private s t a t i c boolean checkURL ( S t r i n g u r l )
{
i f ( u r l . e q u a l s ( "" ) ) return f a l s e ;
D e f a u l t H t t p C l i e n t c l i e n t = new D e f a u l t H t t p C l i e n t ( ) ;
HttpGet g e t R e q u e s t = new HttpGet ( u r l ) ;
HttpResponse g e t R e s p o n s e ;
try {
getResponse = c l i e n t . execute ( getRequest ) ;
f i n a l int s t a t u s C o d e = g e t R e s p o n s e . g e t S t a t u s L i n e ( ) .
getStatusCode ( ) ;
i f ( s t a t u s C o d e == H t t p S t a t u s . SC OK)
return true ;
} catch ( IOException e ) {
return f a l s e ;
}
return f a l s e ;
}
}
Paquete gui C.46: Util.java
ARStatus.java
package com . i v a n l o r e n z o . g u i ;
/∗ ∗
∗ Enumeración de l o s e s t a d o s en l o s que puede e s t a r f u n c i n a n d o l a
a p l i c a c i ó n
∗ @author Iván Lorenzo Rubio
∗
∗/
public enum ARStatus
{
/∗ ∗
404
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.4. Clases Java
∗ Estado en e l que s e e s t á n buscando markers en l a s imágenes
o b t e n i d a s por l a cámara
∗/
AR Marker ,
/∗ ∗
∗ Estado en e l que s e e s t á mostrando i n f o r m a c i ó n p r o v e n i e n t e de
una l o c a l i z a c i ó n
∗/
AR GPS
}
Paquete gui C.47: ARStatus.java
MessageWhat.java
package com . i v a n l o r e n z o . g u i ;
/∗ ∗
∗ Enumeración con l o s mensajes mostrados por l a a p l i c a c i ó n
∗ @author Iván Lorenzo Rubio
∗
∗/
public enum MessageWhat
{
NONE,
CROP MSG,
FIRST TIME INIT ,
RESTART PREVIEW,
CLEAR SCREEN DELAY,
// 4
SET CAMERA PARAMETERS WHEN IDLE,
// 5
SHOW LOADING,
HIDE LOADING
}
// 0
// 1
// 2
// 3
// 6
// 7
Paquete gui C.48: MessageWhat.java
C.4.10.
Paquete com.ivanlorenzo.gui.preferences
preferences/TFGPreferencesActivity.java
package com . i v a n l o r e n z o . g u i . p r e f e r e n c e s ;
import com . i v a n l o r e n z o . g u i .R;
import a n d r o i d . o s . Bundle ;
import a n d r o i d . p r e f e r e n c e . P r e f e r e n c e A c t i v i t y ;
import a n d r o i d . p r e f e r e n c e . P r e f e r e n c e M a n a g e r ;
/∗ ∗
∗ A c t i v i t y que g e s t i o n a l a s p r e f e r e n c i a s d e l u s u a r i o . Carga l a s
preferencias del recurso
Plataforma educativa basada en realidad aumentada y dispositivos móviles
405
C. Código Fuente
∗ p r e f e r e n c e s . xml
∗ @author Iván Lorenzo Rubio
∗
∗/
public c l a s s T F G P r e f e r e n c e s A c t i v i t y extends P r e f e r e n c e A c t i v i t y
{
@Override
protected void onCreate ( Bundle s a v e d I n s t a n c e S t a t e )
{
super . onCreate ( s a v e d I n s t a n c e S t a t e ) ;
P r e f e r e n c e M a n a g e r prefMgr = g e t P r e f e r e n c e M a n a g e r ( ) ;
prefMgr . s e t S h a r e d P r e f e r e n c e s N a m e ( g e t R e s o u r c e s ( ) . g e t S t r i n g (R. s t r i n g .
FILE PREFERENCES) ) ;
a d d P r e f e r e n c e s F r o m R e s o u r c e (R. xml . p r e f e r e n c e s ) ;
}
}
Paquete gui C.49: preferences/TFGPreferencesActivity.java
C.4.11.
Paquete com.ivanlorenzo.gui.dialogs
dialogs/DialogType.java
package com . i v a n l o r e n z o . g u i . d i a l o g s ;
/∗ ∗
∗ Enumeración de l o s t i p o s de d i á l o g o s de l a a p l i c a c i ó n
∗ @author Iván Lorenzo Rubio
∗
∗/
public enum DialogType
{
DIALOG LOADING,
// 0
DIALOG ERROR CONNECTION,
// 1
DIALOG EXIT ,
// 2
//ALERT DIALOG LOADED DATA
//4
}
Paquete gui C.50: dialogs/DialogType.java
C.5.
Pruebas JUnit
DataTest.java
package com . i v a n l o r e n z o . data . t e s t ;
import j a v a . i o . IOException ;
406
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.5. Pruebas JUnit
import j a v a x . xml . xpath . XPathExpressionException ;
import a n d r o i d . t e s t . A c t i v i t y I n s t r u m e n t a t i o n T e s t C a s e 2 ;
import
import
import
import
com . i v a n l o r e n z o . data . Co m p i le r G en e r a to r ;
com . i v a n l o r e n z o . data . e x c e p t i o n s . LoadXMLException ;
com . i v a n l o r e n z o . data . e x c e p t i o n s . NoSuchExtensionObject3DException ;
com . i v a n l o r e n z o . g u i . TFGARActivity ;
public c l a s s DataTest extends A c t i v i t y I n s t r u m e n t a t i o n T e s t C a s e 2 <
TFGARActivity>
{
public DataTest ( )
{
super ( "com. ivanlorenzo .gui" , TFGARActivity . c l a s s ) ;
}
@Override
protected void setUp ( )
{
try {
C o mp i l er G e n er a t or . c o m p i l e (
null ,
"http :// tfg. ivanlorenzo .es/data/
testPatterns .xml" , "http :// tfg.
ivanlorenzo .es/data/ patterns .dtd
",
"http :// tfg. ivanlorenzo .es/data/
testObjects .xml" , "http :// tfg.
ivanlorenzo .es/data/ objects .dtd"
);
}
catch ( IOException e ) { e . p r i n t S t a c k T r a c e ( ) ; }
catch ( XPathExpressionException e ) { e .
printStackTrace () ;}
catch ( LoadXMLException e ) { e . p r i n t S t a c k T r a c e ( ) ; }
catch ( NoSuchExtensionObject3DException e ) { e .
printStackTrace () ;}
}
/∗ ∗
∗ − Comprueba que e l p a t r ó n 1 t e n g a a s o c i a d o e l o b j e t o cuyo i d s e a
1
∗ − Comprueba que s e hayan c a r g a d o 2 p a t r o n e s y 1 l o c a l i z a c i ó n
∗/
public void t e s t C h e c k P a t t e r n s ( )
{
a s s e r t E q u a l s ( C o m p il e r Ge n e r at o r . BASE . g e t P a t t e r n ( 1 ) .
getIdObject ( ) , 1) ;
a s s e r t E q u a l s ( C o m p il e r Ge n e r at o r . BASE . g e t P a t t e r n s ( ) . s i z e ( ) ,
2) ;
Plataforma educativa basada en realidad aumentada y dispositivos móviles
407
C. Código Fuente
a s s e r t E q u a l s ( C o m p il e r Ge n e r at o r . BASE . g e t L o c a t i o n s ( ) . s i z e ( ) ,
1) ;
}
/∗ ∗
∗ Comprobamos que haya 3 o b j e t o s c a r g a d o s
∗/
public void t e s t C h e c k O b j e c t s ( )
{
a s s e r t E q u a l s ( C o m p il e r Ge n e r at o r . BASE . g e t O b j e c t s ( ) . s i z e ( ) , 3 )
;
}
@Override
protected void tearDown ( )
{
C o mp i l er G e n er a t or . BASE . c l e a r ( ) ;
}
}
Test JUnit C.51: DataTest.java
ParserTest.java
package com . i v a n l o r e n z o . p a r s e r ;
import j a v a . i o . IOException ;
import j a v a x . xml . xpath . XPathExpressionException ;
import a n d r o i d . t e s t . A c t i v i t y I n s t r u m e n t a t i o n T e s t C a s e 2 ;
import
import
import
import
import
com . i v a n l o r e n z o . data . Co m p i le r G en e r a to r ;
com . i v a n l o r e n z o . data . KnowledgeBase ;
com . i v a n l o r e n z o . data . e x c e p t i o n s . LoadXMLException ;
com . i v a n l o r e n z o . data . e x c e p t i o n s . NoSuchExtensionObject3DException ;
com . i v a n l o r e n z o . g u i . TFGARActivity ;
public c l a s s P a r s e r T e s t extends A c t i v i t y I n s t r u m e n t a t i o n T e s t C a s e 2 <
TFGARActivity>
{
public P a r s e r T e s t ( )
{
super ( "com. ivanlorenzo .gui" , TFGARActivity . c l a s s ) ;
}
408
Plataforma educativa basada en realidad aumentada y dispositivos móviles
C.5. Pruebas JUnit
@Override
protected void setUp ( )
{
try {
C o mp i l er G e n er a t or . c o m p i l e (
null ,
"http :// tfg. ivanlorenzo .es/data/
testPatterns .xml" , "http :// tfg.
ivanlorenzo .es/data/ patterns .dtd
",
"http :// tfg. ivanlorenzo .es/data/
testObjects .xml" , "http :// tfg.
ivanlorenzo .es/data/ objects .dtd"
);
}
catch ( IOException e ) { e . p r i n t S t a c k T r a c e ( ) ; }
catch ( XPathExpressionException e ) { e .
printStackTrace () ;}
catch ( LoadXMLException e ) { e . p r i n t S t a c k T r a c e ( ) ; }
catch ( NoSuchExtensionObject3DException e ) { e .
printStackTrace () ;}
}
/∗ ∗
∗ Comprobamos s i e f e c t i v a m e n t e hay o b j e t o s p a r s e a d o s
∗/
public void t e s t P a r s e ( )
{
assertTrue (
KnowledgeBase . g e t I n s t a n c e ( ) .
getObjectsToScene ( this . g e t A c t i v i t y ( ) .
getResources ( ) ) . s i z e ( ) > 0) ;
}
@Override
protected void tearDown ( )
{
C o mp i l er G e n er a t or . BASE . c l e a r ( ) ;
}
}
Test JUnit C.52: ParserTest.java
Plataforma educativa basada en realidad aumentada y dispositivos móviles
409
C. Código Fuente
410
Plataforma educativa basada en realidad aumentada y dispositivos móviles