Download Face Classification by Local Texture Analysis through CBIR and

Document related concepts
no text concepts found
Transcript
Face Classification by Local Texture Analysis
through CBIR and SURF Points
C. Benavides, J. Villegas, Member, IEEE, G. Román and C. Avilés
1
Abstract— This study presents a robust face recognition
system that takes into account both, local texture and points-ofinterest analysis. This system uses the CBIR (Content Based
Image Retrieval) technique considering as descriptors the mean,
the standard deviation, and the homogeneity of each of the
several image windows subjected to analysis; that is, each
window acts as a local image region subjected to the face analysis
having a face point of interest at its center. In this way, the
system retrieves descriptive data of people by analyzing their
own texture characteristics on the interior of each face. The
system achieves to get a self-organization of the data which a
similarity-based order approximation of the face images in a
database (DB). With the support of the analysis provided by the
points of interest technique SURF, complemented with the CBIR
technique, we generated a robust map able to achieve a 100%
classification conducted on DB. The results have also been highly
successful when conducted under controlled lighting conditions.
describir diferentes objetos que los caracterizan, tales como
agua, vegetación, montañas, enfermedades o detección de
fallas, ya sea en suelos o en cualquier superficie. Por ese
motivo, cuando se desea detectar la presencia de un objeto éste
puede identificarse por sus características de textura [3].
La recuperación de imágenes mediante su contenido
propio (Content-Based Image Retrieval o CBIR), es un
sistema de búsqueda y/o clasificación de imágenes, basándose
en si mismas. CBIR ha demostrado tener excelentes
resultados, en el análisis de escenarios naturales [4]. Esta tarea
de forma tradicional se realiza en 4 etapas generales como se
muestra en la Fig. 1: acondicionamiento de los
datos/preprocesamiento, extracción de características,
organización de características, y clasificación.
Keywords— CBIR, Classification, Face Recognition, Points of
Interest, SURF, Parallel Computing.
I. INTRODUCCIÓN
E
L APRENDIZAJE automático es parte de una rama de la
inteligencia artificial, y tiene como objetivo desarrollar
técnicas que le permitan a las computadoras aprender sobre
algún objetivo en específico [1]; i.e., se generan programas
que sean capaces de generalizar un comportamiento a partir de
la información provista en forma de ejemplos. Una de las
aplicaciones del aprendizaje automático es el reconocimiento
de rostros. Ésta es un área de investigación activa que abarca
diferentes disciplinas, tales como la visión por computadora,
el reconocimiento de patrones, el procesamiento digital de
imágenes, y el reconocimiento de objetos. Desde 1882 se
comenzaron a desarrollar los primeros sistemas de
reconocimiento de rostros e.g., el Sistema Bertillon [2], el cual
comenzó a utilizar fotografías de personas, junto con las
características antropométricas para su identificación. En un
sistema de clasificación se hace uso de las técnicas de la visión
por computadora (como es el procesamiento digital de
imágenes [1]) para deducir las estructuras y propiedades de
una imagen. No solo se incluyen propiedades geométricas
(forma, tamaño, localización de un objeto), sino también sus
propiedades materiales (textura, color, etc.).
La textura como forma en que se presenta la superficie
como sensación táctil o visual, se ha utilizado en diversas
áreas como la ingeniería, el arte y el diseño para identificar y
C. Benavides, Universidad Autónoma Metropolitana, Unidad Iztapalapa,
Departamento de Ingeniería Eléctrica, México DF, [email protected]
G. Román, Universidad Autónoma Metropolitana, Unidad Iztapalapa,
Departamento de Ingeniería Eléctrica, México DF, [email protected]
J. Villegas, Universidad Autónoma Metropolitana, Unidad Azcapotzalco,
Departamento de Electrónica, México DF, [email protected]
C. Avilés, Universidad Autónoma Metropolitana, Unidad Azcapotzalco,
Departamento de Electrónica, México DF, [email protected]
Figura 1. Metodología tradicional de la técnica CBIR aplicada a escenarios
naturales.
Por otro lado, algunos de los métodos para la extracción de
puntos de interés del rostro son, los basados en geometría,
apariencia y plantillas. En los basados en geometría [5][7], las
características son obtenidas a través de la información
geométrica, posición, tamaño y distancias de los rasgos de la
cara; en estos métodos es importante seleccionar de manera
cuidadosa los umbrales de las características. Por otro lado los
basados en apariencia [9][10], utilizan una técnica basada en la
segmentación por color, esta técnica utiliza el color de la piel
para separar la región del rostro; por lo tanto cualquier región
que no tenga el color de la piel dentro del rostro puede ser
aceptada como zona candidata para la ubicación de la boca o
los ojos. La efectividad de esta técnica es limitada a causa de
los diferentes tonos de piel de las personas. Los basados en
plantillas [11][12], se generan por medio de la
correspondencia, a partir de una plantilla de puntos de
referencia que se realiza previamente. El costo computacional
en estos métodos es muy elevado y presenta grandes
dificultades cuando las características cambian de manera
significativa, sobre todo cuando existen cambios bruscos en
las imágenes de las personas. El problema del reconocimiento
de rostros se torna difícil por la gran variabilidad que existe:
en la rotación de la cabeza, su inclinación, la iluminación, el
ángulo, la expresión facial, envejecimiento, etc. [12][20][24].
Una de las técnicas más utilizada para el reconocimiento
de rostros mencionada en la mayor parte de la literatura, es
“Eigenfaces” [23]. En ésta se toma un enfoque de
proyecciones ortogonales para el reconocimiento facial, utiliza
los componentes principales de una distribución de rostros, y
los vectores propios de la matriz de covarianza del conjunto de
imágenes del rostro, haciendo uso del análisis de componentes
principales para reducir la dimensionalidad de las
características [6]. Existen diferentes técnicas que atacan el
problema del reconocimiento de rostros desde el uso de
algoritmos genéticos como en [8] [26], redes neuronales
artificiales, máquinas de soporte vectorial, etc. También se
menciona la utilización de diferentes espacios de color para la
captura y trabajo de las imágenes como en [27], donde se
realiza un seguimiento de rostros trabajando con imágenes en
color RGB. En [28] genera un framework de segmentación de
las imágenes para rostros, utilizando imágenes de rostros en
escala de grises. Depende la técnica utilizada para la
extracción de características, se hace uso de los diferentes
espacios de color para trabajar el procesamiento digital de las
imágenes.
Se han propuesto diversos descriptores y detectores dentro
de la literatura, y se ha encontrado que el rendimiento del
descriptor depende a menudo del detector de puntos de interés
[19]. En [22] se ha encontrado un estudio comparativo en
donde el rendimiento es superior en las características locales
para el reconocimiento de rostros en ambientes sin
restricciones. Los descriptores SURF (Speed Up Robust
Features) [15], se han usado en combinación con una máquina
de soporte vectorial (SVM), únicamente para los componentes
del rostro [17]. Existen pocos análisis detallados del uso de
SURF aplicado al reconocimiento facial hasta el momento.
El análisis de puntos de interés ha funcionado muy bien
para el reconocimiento de objetos, en el presente artículo se
plantea una variante aplicada al reconocimiento de rostros.
Con el fin de optimizar la técnica propuesta de reconocimiento
de rostros, CBIR+SURF propuesta, (véase la Fig. 2), se hace
uso del cómputo paralelo, alcanzando rapidez y precisión (en
las operaciones de punto flotante), trabajando con grandes
bases de datos de rostros.
A diferencia de estas técnicas mencionadas, no se ha
trabajado con el análisis de textura local, esta es una nueva
técnica que funciona bien para escenarios naturales [4]. Ahora
aplicada al reconocimiento de rostros, genera excelentes
resultados cuando las condiciones de las imágenes son
controladas. Esta técnica sumada con análisis de puntos de
interés SURF, dentro del clasificador compuesto, generan un
porcentaje de clasificación del 100% en las pruebas.
La metodología propuesta en este artículo está integrada
tanto por un análisis geométrico, a través de los puntos de
interés SURF, como por la técnica CBIR.
En nuestra propuesta las pruebas se realizaron sobre
rostros en condiciones controladas de iluminación, sin
oclusiones, de la misma temporalidad y de frente, con bases de
datos de la literatura; logrando excelentes resultados de
clasificación.
En la sección II se muestra en detalle la metodología
propuesta, la experimentación implementando el cómputo
paralelo se muestra en las sección III, en las sección IV los
resultados alcanzados son analizados y expuestos comparando
las bases de datos usadas, y finalmente en la sección V
mostramos las conclusiones alcanzadas.
II. METODOLOGÍA PROPUESTA
Figura 2. Clasificador compuesto por CBIR + SURF.
Los factores principales que se deben de considerar en la
detección de rostros son: (i) iluminación, (ii) orientación, (iii)
tamaño y (iv) textura. En esta propuesta las imágenes de
rostros con las que se trabaja, se considera el análisis de
textura por medio de CBIR, y los puntos de interés SURF del
rostro. La metodología consta de una entrada y una salida al
sistema. En nuestra propuesta el sistema de identificación y
clasificación consta de dos etapas, entrenamiento y
recuperación.
• Entradas al sistema: Entrenamiento del sistema
CBIR y SURF propuesto con imágenes de rostros en
condiciones ideales.
• Salidas del sistema: Las tres o cinco imágenes más
parecidas a la imagen de consulta contenidas en la
base de datos.
A. Recuperación de imagen por CBIR
La arquitectura de entrenamiento CBIR se muestra en
la Fig. 3, cada una de las fases o etapas se exponen a
continuación:
Figura 3. Arquitectura de entrenamiento CBIR.
1) Entrenamiento: La arquitectura de entrenamiento,
consta de las siguientes etapas:
• BD: Contiene las imágenes de los rostros en
condiciones ideales. Lectura de imágenes: Lee las
imágenes que serán procesadas, las imágenes son
cargadas en formato RGB.
• Acondicionamiento: Eliminar ruido en las imágenes.
• Conversión de espacio de color RGB a HSI: Dado
que el espacio de color HSI nos proporciona más
información útil acerca de la imagen, e.g., la textura,
luminosidad, saturación de color, etc.
• Extracción de puntos de interés: Selección de los N
puntos de interés del rostro a trabajar.
• Extracción de características estadísticas: Cálculo
de valores de textura sobre la ventana construida a
partir de un punto de interés del rostro, se genera una
ventana de (2P + 1) × (2P + 1) pixeles con el punto
de interés en el centro (x,y), véase la Fig. 4. De esta
ventana se extraen tres valores descriptivos
estadísticamente: media, desviación estándar y
homogeneidad. Para la homogeneidad se toman los
valores a partir de la matriz de coocurrencia [25], a
partir de los valores de la ventana en uso, como se
muestra en la ecuación (1).
•
B. Implementación de la técnica SURF.
1) Entrenamiento: La arquitectura de entrenamiento
propuesta se muestra en la Fig. 5, y consta de las
siguientes partes:
Figura 5. Arquitectura SURF para el reconocimiento de rostros.
•
•
•
•
BD: Contiene las imágenes de los rostros en
condiciones ideales.
Lectura de imágenes: Lee las imágenes que serán
procesadas en escala de grises.
Acondicionamiento: Elimina impurezas (ruido) en
las imágenes.
Segmentado de la imagen en rejillas: Se realiza una
segmentación de la imagen en rejillas del mismo
tamaño pasando una ventana deslizante para cada
imagen, ver Fig. 6.
Figura 4. Ejemplo de una ventana de tamaño 3x3 para la extracción de
información CBIR.
N−1 N−1
M Coc (x, y)
2
x=0 y=0 1+ (x − y)
H = 
•
•
(1)
Construcción del patrón: Con las características
obtenidas por cada imagen, se conforma un patrón Pj,
de dimensión 1×(pi*9) componentes. Al final de este
proceso se obtendrá una matriz M de dimensión
(j*pi)×9, con j=Número de imágenes, pi=Número de
puntos de interés.
Aplicación de k-Medias: Se generan k grupos
(clases), a partir de los valores de la base de datos de
los patrones normalizados, implementando el
algoritmo k –Medias.
2) Recuperación: Se presenta la imagen a recuperar,
aplicándole a esta las etapas: lectura de la imagen,
acondicionamiento, conversión de RGB a HSI,
extracción de puntos de interés, extracción de
características estadísticas, y construcción del patrón; y
se procede a aplicar el algoritmo k–NN para determinar
los k próximos vecinos del patrón, sobre la base de
patrones separada por k–medias.
Figura 6. Ejemplo del segmentado de la imagen en rejillas por medio de
ventana deslizante.
•
Extracción de características por rejilla: A cada
una de las rejillas de la imagen se le extraen los
puntos de interés, y el descriptor SURF para cada uno
de esos puntos. Para cada imagen se obtendrán m
contenedores de puntos de interés y M patrones
descriptivos.
•
BD Características: contiene la información de los
puntos de interés y los descriptores de cada una de las
BD, por lo que al final se tendrá un arreglo de puntos
de interés y un arreglo de descriptores SURF:
VectorKeyPoins de dimensión {m*n*Nimag}, y
VectorDescriptores
de dimensión {M*n*Nimag},
donde n=número de rejillas.
2) Recuperación: La arquitectura del sistema en la
recuperación consta de una esquema similar al de
entrenamiento, el cual se describe de la siguiente manera:
Se presenta la imagen a recuperar, aplicándole a esta
las etapas: lectura de la imagen, detección y recorte del
rostro, acondicionamiento y normalización, segmentado la
imagen en rejillas y extracción de características por
rejilla; y se procede a aplicar el algoritmo k–NN para
determinar los k próximos vecinos del patrón sobre la
base de características a través de un radio determinado,
para la comparación de cada uno de los puntos en los que
se encontró una coincidencia, como se ilustra en la Fig. 7.
de todas las imágenes VectorKeyPoints, de tamaño
{1x(Nimag*n)}, y el otro contiene todos los descriptores
VectorDescriptores, de tamaño {1x(Nimag*n)} para la
parte de SURF.
La complejidad del algoritmo secuencial para CBIR y
SURF se expresa en las ecuaciones (2) y (3) respectivamente:
O(CCBIR × Nimag × NPi × NcaracCBIR )
O(CSURF × Nimag × Nrejillas )
(2)
(3)
Donde:
• CBIR= Constante de procesamiento de cada una de las
imágenes
• Nimag = Número de imágenes
• NPi= Número de puntos de interés
• NcaracCBIR= Número de características estadísticas
CBIR {media, desviación estándar, homogeneidad}
• CSURF= Constante de procesamiento de cada una de las
imágenes
• Nrejillas= Número de rejillas.
Esta metodología se desarrolló con las BD de imágenes de
rostros: ArDatabase [18], BioID [16], ExtendedYaleFaces
[14], YaleFaces [13] y Muct [21]. En la Fig. 8 se muestran
ejemplos de los rostros de las bases de datos respectivamente.
Figura 7. Comparación entre punto de interés de consulta (KP-R) y punto de
interés de entrenamiento (KP-E), dentro de la rejilla.
III. EXPERIMENTACIÓN: IMPLEMENTACIÓN DE CÓMPUTO
PARALELO
El tiempo de construcción de la base de datos de
entrenamiento depende principalmente del procesamiento de
las N imágenes de una base de datos específica. Para reducir
este tiempo, desarrollamos un algoritmo paralelo que utiliza
las herramientas de Open MPI y OpenCV, donde el proceso de
la extracción de características se paraleliza, por lo que
podemos acelerar el análisis de las imágenes ya que se
procesan en paralelo, en lugar de hacerlo de la forma
secuencial.
El algoritmo paralelo consta esencialmente de los
siguientes pasos.
1) Cada proceso calcula el número de imágenes a procesar.
2) Cada proceso lee una de las imágenes a procesar tanto
para CBIR como para SURF, del subconjunto de
imágenes en la base de datos.
3) Se extraen las características CBIR y SURF para el
subconjunto de imágenes, esa información se guarda de
manera correspondiente tanto en matrices como en
arreglos.
4) Al final del proceso de entrenamiento se tienen la base de
datos normalizada, de las características estadísticas para
CBIR, y dos arreglos: uno contiene los puntos de interés
Figura 8. Ejemplo de imágenes en las BD: (a) AR, (b) bio ID, (c) Yale faces,
(d) MUCT, (e) Extended Yale B.
La Tabla 1 muestra la descripción de cada base de datos.
TABLA I
DESCRIPCIÓN DE LAS BASES DE ROSTROS UTILIZADAS
BD
AR
Ext.
Yale B
Yale
Bio ID
MUCT
No.
Img
4000
1612
8
165
1521
3755
Personas
Formato
Resolución
126
10
Tipo
Imagen
Color
E.Gris
jpg
pgm
768x576
640x480
15
23
276
E.Gris
E.Gris
Color
gif
pgm
jpg
320x243
648x286
640x480
IV. RESULTADOS
Se trabajó con las bases de datos mencionadas
anteriormente. La programación se realizó en C, C++ y
OpenCV. Para cada una de las BD, se seleccionaron las
imágenes que cumplen con la descripción de condiciones
ideales mencionadas anteriormente. De cada una de estas BD
se seleccionaron 6 imágenes por clase (persona), se extrajeron
las características CBIR y SURF para cada una de las
imágenes. A partir de este análisis se obtuvieron las 3 y 5
imágenes más cercanas o parecidas a la imagen de consulta
con el algoritmo k–NN, usando la métrica Euclidiana en las
pruebas. Usando la matriz de confusión podemos analizar el
porcentaje de clasificación para los experimentos realizados,
como se muestra en los resultados que se obtuvieron de
clasificación para las BD.
El equipo de cómputo utilizado para este trabajo es un
cluster con 10 nodos (3 con 8 cores y 7 con 4 cores) con
velocidades de 3 GHz y 3.4 GHz, con un total de 52 cores, con
sistema operativo Linux CentOS y diferentes características de
hardware. Adicionalmente, se realizó una prueba con
imágenes contaminadas con ruido gaussiano y mixto, ambos
con 1 %, 3 % y 5 %.
Los porcentajes de clasificación obtenidos para los
clasificadores se muestran en la Fig. 9, con la base de datos
AR, para las metodologías de evaluación de desempeño: quitar
un elemento (LOO) y validación cruzada (CV) al 17 %, 33 %
y 50 %.
Figura 11. Resultado de las metodologías de evaluación de desempeño, base
de datos MUCT, prueba de: (a) Resustitución, (b) Quitar un elemento (LOO),
(c) Validación cruzada al 13 %, (d) Validación cruzada al 27 %, (e)
Validación cruzada al 50 %.
El resultado para las imágenes contaminadas con ruido se
puede observar en la Fig. 12, donde se puede apreciar que la
clasificación para la técnica SURF sigue siendo buena en
comparación de CBIR donde no lo es.
Figura 9. Porcentajes de clasificación base de datos AR para la prueba quitar
una elemento (LOO) y validación cruzada (CV) al 13 %, 33 % y 50 %.
Para esta misma base de datos, los porcentajes de
clasificación para las imágenes contaminadas con ruido, se
muestran en la Fig. 10, para k=3 y k=5, sólo para prueba de
resustitución.
Figura 10. Porcentajes de clasificación base de datos AR con k=[3,5] y los
porcentajes de ruido, Gaussiano y Mixto correspondientes. Véase que la
combinación CBIR+SURF alcanza el 100 %.
El resultado para las imágenes se puede observar en la Fig.
11, donde se observa muy buena clasificación.
Figura 12. Resultado de base de datos MUCT imágenes con ruido: (a)
Gaussiano al 1 %, (b) Gaussiano al 3 %, (c) Gaussiano al 5 %, (d) Mixto al 1
%, (e) Mixto al 3 %, (f) Mixto al 5 %.
Los resultados finales de cada una de las BD se presentan
en la Fig. 13, en donde se observa que en cada una de ellas se
obtienen muy buenos resultados en la clasificación de una
imagen de consulta, para las BD estudiadas y mencionadas en
este trabajo.
Figura 13. Resultado final de cada base de datos: (a) BioID, (b) Extended Yale
B, (c) AR, (d) MUCT.
A. Análisis del rendimiento
El desempeño de los clasificadores utilizando la técnica
CBIR y SURF se puede ver reflejado en la Fig. 14
teniendo que:
1) Se observó que el tiempo de ejecución tuvo una
reducción considerable mientras aumentaba el
número de procesos.
2) El factor de aceleración (FA), ver ecuación (4), va
aumentando linealmente.
்
‫ ܣܨ‬ൌ ೞ೐೎ೠ೐೙೎೔ೌ೗
(4)
்೛ ሺேሻ
Siendo Tsecuencial el tiempo que tarda en ejecutarse el
sistema con un solo proceso, Tp(N) el tiempo que se
tarda en ejecutarse con N procesos.
técnicas CBIR+SURF, es un complemento robusto ya que de
manera independiente generan un buen resultado de
clasificación, pero de manera conjunta el porcentaje de
clasificación llega al 100 %.
Se observó que la metodología CBIR, al trabajar con
imágenes contaminadas con ruido, afecta directamente al
desempeño de nuestro clasificador, ya que CBIR trabaja
directamente con el análisis de textura para nuestra propuesta,
entonces una imagen alterada de esta manera, aunque sea
trabajando con el conjunto fundamental, ya no es la misma
imagen contenida en la base de datos, por lo que el sistema se
confunde y asigna la imagen de consulta a una clase diferente
de la esperada. Otro factor importante que afecta al sistema es
la captura de imágenes, ya que al no estar en las mismas
condiciones tanto de iluminación, como en distancia, generan
cambios drásticos en la extracción de características, las cuales
aunque sea la misma persona, las condiciones de obtención de
sus imágenes varían, para nuestro sistema luego entonces ya
no es la misma persona.
En el análisis de puntos SURF no existen los problemas
encontrados en CBIR para la clasificación, por lo que es un
buen complemento para nuestro sistema, ya que muestra tener
excelentes resultados aún con imágenes contaminadas. El
problema detectado en esta técnica es el alto costo
computacional acorde a nuestra propuesta, ya que al
segmentar una imagen en rejillas, la extracción de
características de cada una de las rejillas tiene alto costo de
procesamiento para la etapa de entrenamiento, por lo que si se
busca trabajar con una cantidad mayor de imágenes, se
tendrían que tomar en cuenta las técnicas de optimización en
los algoritmos para mejorar el desempeño del sistema.
Como trabajo futuro sería interesante reportar el
desempeño de reducción de tiempo de cómputo con bases de
datos mucho mayores, sobre la versión de programación
paralela, y estudiar el nivel de recuperación sobre un número
mucho mayor de clases e imágenes. Probar con otro tipo de
arquitectura paralela como podría ser la utilización de GPUs, y
generar una comparación del desempeño entre ambas técnicas
de programación paralela.
REFERENCIAS
Figura 14. Factor de aceleración para ambas técnicas CBIR y SURF,
aumentando el número de procesos.
V. CONCLUSIONES
Los resultados obtenidos con las BD fueron muy
contundentes en la reducción del tiempo de procesamiento y
en el porcentaje del clasificador conjunto, la unión de ambas
[1] V. S. Nalwa. A Guided Tour of Computer Vision, volume 1 of
TA1632. Addison Wesley, 1993.
[2]
H. T. F. Rodes, Alphonse Bertillon: Father of Scientific Detection.
Abelard-Schuman, New York, 1956.
[3] A Carolina Pinto L. Segmentación de imágenes por textura.
Technical report, Universidad de Concepción, Septiembre 2006.
[4] J. F. Serrano-Talamantes, C. Aviles-Cruz, J. Villegas-Cortez, and
J. H. Sossa-Azuela, “Self organizing natural scene image retrieval,” Expert
Systems with Aplications: An International Journal, vol. 40, no. 7, pp. 2398–
2409, 2012.
[5] K. A. Kim. Facial feature extraction using PCA and wavelet
multiresolution images. sixth IEEE International Conference on Automatic
Face and Gesture Recognition, pages 17–19, Mayo 2004.
[6] Y. Zaho. Part-based PCA for facial feature extraction and
classification. International Workshop in Haptic Audio visual Environments
and Games, pages 99–104, Noviembre 2009.
[7] B. Amarapur and N. Patil. The facial textures extraction for face
recognition based on geometrical approach. IEEE CCECE/CCGEI, pages
1936– 1939, Mayo 2006.
[8] G. G. Yen and N. Nithianandan. Facial feature extraction using
genetic algorithm. Congress on Evolutionary Computation, 2:1895–1900,
Mayo 2002.
[9] M. H. Mahoor and M. Abdel-Mottaleb. Facial features extraction
in color images using enhanced active shape model. 7th International
Conference on Automatic Face and Gesture Recognition (FGR’06), pages 10–
12, 2006.
[10] T. F. Cootes. Active appearance models. IEEE Transactions on
Pattern Analysis and Machine Intelligence, 23(6):681–685, 2001.
[11] Y. Yokogawa. A proposal of improved lip contour extraction
method using deformable template matching and its application to dental
treatment. Systems and Computers in Japan, 38(5):80–89, 2007.
[12] HazmKemal Ekenel and Rainer Stiefelhagen. Why is facial
occlusion a challenging problem? In Massimo Tistarelli and MarkS. Nixon,
editors, Advances in Biometrics, volume 5558 of Lecture Notes in Computer
Science, pages 299–308. Springer Berlin Heidelberg, 2009.
[13] Peter N. Belhumeur, João P. Hespanha, and David J. Kriegman.
Eigen- faces vs. fisherfaces: Recognition using class specific linear projection.
IEEE Trans. Pattern Anal. Mach. Intell., 19(7):711–720, July 1997.
[14] Athinodoros S. Georghiades, Peter N. Belhumeur, and David J.
Krieg- man. From few to many: Illumination cone models for face recognition
under variable lighting and pose. IEEE Trans. Pattern Anal. Mach. Intell.,
23(6):643–660, June 2001.
[15] H. Bay, A. Ess, T. Tuytelaars, and L. V-Goo. Surf: Speeded up
robust features. Computer Vision and Image Understanding (CVIU),
110(3):346– 359, 2008.
[16] Oliver Jesorsky, Klaus J. Kirchberg, and Robert W. Frischholz.
Robust face detection using the hausdorff distance. Pages 90–95. Springer,
2001.
[17] Donghoon Kim and Rozenn Dahyot. Face components detection
using surf descriptors and svms. In Proceedings of the 2008 International
Machine Vision and Image Processing Conference, IMVIP ’08, pages 51–56,
Washington, DC, USA, 2008. IEEE Computer Society.
[18] A. M. Martinez and R. Benavente. The AR face database. CVC
Technical Report 24, The Ohio State University, junio 1998.
[19] Krystian Mikolajczyk and Cordelia Schmid. A performance
evaluation of local descriptors. IEEE Trans. Pattern Anal. Mach. Intell.,
27(10):1615–1630, October 2005.
[20] Aleix M. Martinez. Recognizing imprecisely localized, partially
occluded, and expression variant faces from a single sample per class. Pattern
Analysis and Machine Intelligence, IEEE Transactions on, 24(6):748–763,
Jun 2002.
[21] S. Milborrow, J. Morkel, and F. Nicolls. The MUCT Landmarked
Face Database. Pattern Recognition Association of South Africa, 2010.
http://www.milbo.org/muct
[22] Javier Ruiz-del Solar, Rodrigo Verschae, and Mauricio Correa.
Recognition of faces in unconstrained environments: A comparative study.
EURASIP J. Adv. Signal Process, 2009:1:1–1:19, January 2009.
[23] Matthew Turk and Alex Pentland. Eigenfaces for recognition. J.
Cognitive Neuroscience, 3(1):71–86, January 1991.
[24] Lior Wolf, Tal Hassner, and Yaniv Taigman. Y.: Descriptor based
methods in the wild. In In: Faces in Real-Life Images Workshop in ECCV.
(2008) (b) Similarity Scores based on Background Samples.
[25] Wintz González García. Digital Image Processing. Prentice Hall,
2002.
[26] Duber Martínez Torres, Eduardo Caicedo Bravo, Humberto Loaiza
Correa Combinación de Técnicas de Reconocimiento de Rostros con
Imágenes Infrarrojas Empleando Algoritmos Genéticos. Revista IEEE
América Latina. Publication Date: June 2008. Volume: 6, Issue: 2. ISSN:
1548-099.
[27] Cornélia Janayna Pereira Passarinho, Evandro Ottoni Teatini
Salles, Mário Sarcinelli Filho. Face Tracking in Unconstrained Color Videos
with the Recovery of the Location of Lost Faces. Revista IEEE América
Latina. Publication Date: Jan. 2015
Volume: 13, Issue: 1 ISSN: 15480992.
[28] André Sobiecki, Gilson Antônio Giraldi, Luiz Antônio Pereira
Neves, Carlos Eduardo Thomaz. An Automatic Framework for Segmentation
and Digital Inpainting of 2D Frontal Face Images. Revista IEEE América
Latina. Publication Date: Dec. 2012. Volume: 10, Issue: 6 ISSN: 1548-0992.
Cesar Benavides Alvarez, recibió su título de Ingeniero en
Electrónica en 2012 en la Universidad Autónoma
Metropolitana (UAM) unidad Iztapalapa, y el grado de
Maestro en Ciencias en 2015 por la UAM también, con la
especialidad en Visión por Computadora y Sistemas
distribuidos; actualmente estudia su Doctorado en Ciencias y Tecnologías de
la Información en la UAM, y es becario del Consejo Nacional de Ciencia y
Tecnología (CONACYT). Sus intereses de investigación son: Visión por
Computadora, Reconocimiento de Patrones, Cómputo Evolutivo y Cómputo
Paralelo y Distribuidos.
Juan Villegas Cortez, es profesor titular en el Departamento
de Electrónica en la UAM Azcapotzalco desde 2010. Obtuvo
su grado de doctor en Ciencias de la Computación en el
Centro de Investigación en Computación del Instituto
Politécnico Nacional. Sus intereses actuales de investigación
incluyen reconocimiento de Patrones, Visión por Computadora, Computación
Evolutiva, Memorias Asociativas y el Procesamiento digital de señales.
Graciela Román Alonso, es profesor titular de la
Universidad Autónoma Metropolitana-Iztapalapa, en
México, D. F. Ella obtuvo el grado de Doctor en Control de
Sistemas por parte de L'Univeristé de Technologie de
Compiégne, Francia. Así mismo, en el período 2010-2012
ella colaboró como profesor invitado en el Laboratorio de
Investigación PARADISE, en The University of Ottawa,
Canadá. Sus intereses de investigación incluyen la distribución dinámica de
carga en sistemas paralelos y distribuidos, cómputo paralelo y distribuido, 3D
streaming, sistemas P2P y VANETs.
Carlos Avilés Cruz, obtuvo el título de Ingeniero en
Electrónica especialidad en Sistemas Digitales en la
Universidad Autónoma Metropolitana en 1991, el grado
Maestro con especialidad en Procesamiento Digital de
Señales, Imágenes y Voz en el Instituto Politécnico Nacional
de Grenoble, Francia 1993, y el grado de Doctor del Instituto
Politécnico Nacional de Grenoble, Francia 1997. Es autor y coautor de más de
40 artículos en revistas más congresos nacionales e internacionales, además de
coautor de dos libros. Sus intereses son la Visión por Computadora, el
Procesamiento digital de imágenes, el Procesamiento digital de señales, el
Reconocimiento de patrones y la Estadística de orden superior.