Download PDF

Survey
yes no Was this document useful for you?
   Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Document related concepts

Retinografía wikipedia, lookup

Retinopatía diabética wikipedia, lookup

Transcript
Segmentación de Imágenes Médicas
utilizando espacio de color
Juan Pablo Gasparri
Directores: Dr. Juan Ignacio Pastore y Dra. Agustina Bouchet
Carrera: Ingeniería Electrónica
Año: 2011
Resumen: La retinopatía diabética es la causa más frecuente de ceguera entre la población
activa en los países desarrollados. Una pronta exploración oftalmológica seguida de un correcto
tratamiento puede prevenir cegueras. El propósito de este trabajo es el desarrollo de un método
automático para la segmentación del árbol vascular en imágenes de retinografías con el fin de
asistir al experto en el seguimiento de un tratamiento específico o en el diagnóstico de posibles
patologías. Se propone combinar técnicas de Morfología Matemática y técnicas generales del
Procesamiento Digital de Imágenes en el espacio color CIELAB con el propósito de realzar
dichas ramificaciones.
1. Introducción
La retinopatía diabética (RD) es la causa más
frecuente de ceguera entre la población activa
en los países desarrollados. Una pronta
exploración oftalmológica seguida de un
correcto tratamiento puede prevenir hasta el
95% de las cegueras [1-3]. El estudio en
profundidad de las características de los vasos
sanguíneos de la retina, como ancho y patrón
de ramificación, proporciona una información
crucial al oftalmólogo.
Debido al poco contraste que existe entre el
fondo ocular y los vasos sanguíneos en las
imágenes de retinografía, la segmentación de
estos últimos no es una tarea sencilla.
Segmentar una imagen es un proceso que
consiste en descomponerla en regiones de
interés, es decir, particionarla según sus
componentes estructurales más importantes
siguiendo algún criterio. Dicho criterio
dependerá del resultado que se desee obtener
sobre la imagen [4]. Los métodos para llevar a
cabo una segmentación varían ampliamente
dependiendo de la aplicación específica, tipo
de imagen y otros factores. El ruido, los
volúmenes parciales y los movimientos en la
imagen, también pueden tener consecuencias
significativas en el desempeño de los
algoritmos de segmentación. Actualmente no
existe un método de segmentación que
alcance resultados aceptables para todo tipo
de imagen médica. No existen métodos que
sean generales y que puedan ser aplicados a
cualquier variedad de datos.
Las imágenes que se obtienen en una
retinografía son imágenes color. En la
actualidad, el uso de imágenes en color para
su procesamiento y análisis es cada vez
mayor, frente a las imágenes en niveles de
gris, debido a la información adicional que
éstas presentan [5-6]. Tradicionalmente, la
utilización de imágenes en color para
diagnóstico no se encontraba ampliamente
difundida en las distintas disciplinas debido a
las limitaciones en las capacidades de los
equipos de captura y procesamiento, además
de los costos y tiempos de procesamiento que
eran prohibitivos. Sin embargo, en la
actualidad, el crecimiento en el poder de
cálculo, las capacidades de almacenamiento y
la modernización de sistemas de bajo costo de
captura e impresión de imágenes han
impulsado un interés creciente en la
utilización de imágenes en color en el
desarrollo de muchas aplicaciones.
Debido al poco contraste que existe entre el
fondo ocular y los vasos sanguíneos en las
imágenes bajo estudio, la segmentación de
estos últimos no es una tarea sencilla. En este
trabajo se propone combinar técnicas de
Morfología Matemática y técnicas generales
del Procesamiento Digital de Imágenes en el
espacio color CIELAB con el propósito de
realzar dichas ramificaciones para mejorar su
visualización y así asistir a los expertos en sus
diagnósticos.
a)
b)
2. Materiales y Métodos
2.1 Modelo CIELAB
El modelo CIE L*a*b* (CIELAB) es el
modelo cromático usado normalmente para
describir todos los colores que puede percibir
el
ojo
humano.
Fue
desarrollado
específicamente con este propósito por la
Commission
Internationale
d'Eclairage
(Comisión Internacional de la Iluminación),
razón por la cual se abrevia CIE. Los
asteriscos (*) que siguen a cada letra forman
parte del nombre, ya que representan L*, a* y
b*, de L, a y b. Dichos parámetros representan
la luminosidad de color (L*, L* = 0
rendimientos negro y L* = 100 indica blanca),
su posición entre magenta y verde (a*, valores
negativos indican verde mientras valores
positivos indican magenta) y su posición entre
amarillo y azul (b*, valores negativos indican
azul y valores positivos indican amarillo) (ver
Figura 1).
Figura 1: Representación gráfica del espacio CIELAB.
Este espacio posee un subespacio que
representa los cambios de luminosidad,
permitiendo constrastar los vasos sanguíneos
del fondo ocular de manera más eficiente que
en otros espacios existentes. En la Figura 2 se
muestra una descomposición de la imagen en
este espacio [7].
c)
d)
Figura 2: a) Imagen original. b) Subespacio L del espacio color
CIE LAB. c) Subespacio A del espacio color CIE LAB.
d) Subespacio B del espacio color CIE LAB.
2.2 Método propuesto
Una vez elegido el espacio color se procedió
al procesamiento de la imagen de retinografía.
El procesamiento de la imagen se descompone
en cuatro pasos fundamentales:
1. Modificación del contraste.
2. Binarización.
3. Filtrado de ruido.
4. Realce de la imagen.
Paso 1: Modificación del contraste
Este paso se realiza con el fin de contrastar el
objeto deseado, es decir el árbol vascular,
sobre el fondo no uniforme para su posterior
segmentación. Para realizar esta tarea se
combinan una serie de procesamientos. En
primer lugar se efectúa un Top-Hat por cierre.
Esta transformada permite resaltar objetos
oscuros sobre fondos no uniformes. Para
finalizar este pre-procesamiento se contrasta
la imagen realizando un estiramiento de
contraste “contrast stretching”. En este
proceso el usuario tiene la posibilidad de
modificar los valores de las pendientes del
gráfico con una simple asignación de valores.
Mediante esta función se logra mejorar el
contraste de la imagen. El proceso consiste en
estirar la distancia del segmento deseados y
comprimir la distancia entre los segmentos
fuera de este intervalo (ver Figura 3). De esta
manera se aplica un contraste selectivo al
segmento deseado en tonos de grises.
Valores de gris de salida
binaria todas las componentes conectadas de
área menor a un determinado valor umbral
(ver Figura 6).
Valores de gises de entrada
Figura 3: Curva entrada-salida de la función contrast stretching.
A modo de ejemplo, en la Figura 4, se
muestra la imagen original y la misma
procesada por el contrast streching.
a)
b)
c)
Figura 4: a) Imagen entrada al contrast stretching. b) Curva del
contrast streching. c) Imagen salida del contrast streching.
Paso 2: Binarización
La imagen obtenida en el paso anterior es una
imagen en niveles de gris. Para la creación de
la máscara que se utilizará en el realce de la
imagen es necesario binarizarla. En este paso
se lleva la imagen a valores binarios, para una
correcta segmentación se debe tener especial
cuidado en la elección del valor de umbral. La
elección de este valor es fundamental para un
correcto realce. Valores por debajo del óptimo
incorporan demasiado ruido el cual no es fácil
de filtrar posteriormente sin perder los vasos
sanguíneos más pequeños. Valores superiores
al óptimo eliminan las componentes más
pequeñas del objeto a segmentar, los cuales no
pueden ser recuperados posteriormente (ver
Figura 5).
a)
b)
Figura 5: a) Imagen en niveles de gris. b) Imagen binarizada.
Paso 3: Filtrado del ruido
Este proceso se realiza con el fin de filtrar el
ruido que no se ha podido eliminar en la
binarización. El filtrado se realiza mediante la
utilización
del
operador
morfológico
“arearopen” el cual elimina de una imagen
a)
b)
Figura 6: a) Imagen binaria. b) Imagen binaria filtrada por el
operador morfológico areaopen.
Paso 4: Realce de la imagen
Para lograr el realce de la imagen original con
el fin de asistir al profesional se altera el tono
de los vasos sanguíneos sin alterar el resto de
la imagen logrando así el realce buscado. Para
tal fin se utiliza la máscara resultante de los
tres pasos anteriores. La cual se multiplica por
la imagen correspondiente al subespacio L
(luminosidad) del espacio color CIE LAB de
la imagen original. Este producto da como
resultado un cambio de tono en los vasos
sanguíneos de la imagen color final, sin
afectar el resto de la imagen la cual conserva
el valor original (ver Figura 7).
(a)
(b)
(c)
Figura 7: a) Imagen Original. b) Mascara binaria.
c) Imagen realzada.
3. Resultados
En la Figura 8 se muestra una serie de
imágenes que se corresponden a los distintos
pasos del método propuesto en esta tesis.
A continuación, en las Figuras 9, 10 y 11, se
muestran algunos resultados obtenidos a partir
del método propuesto. En las Tablas 1, 2 y 3
se muestran los respectivos errores obtenidos
a partir de la imagen gold standar utilizando la
matriz confusión como método de validación
[8]. En la Tabla 4 se pueden observar los
errores porcentuales correspondientes a la
validación de las 40 imágenes pertenecientes a
la base de datos DRIVE de libre descarga [9].
a)
(a)
(b)
(c)
b)
(d)
(e)
c)
(f)
Figura 8: a) Imagen original. b) Imagen correspondiente al
subespacio L del espacio CIE LAB. c) Imagen realzada
mediante el proceso de del contrast streching. d) Imagen
binarizada. e) Imagen filtrada de ruido mediente el operador
morfológico areaopen.
f) Imagen realzada con la segmentacion propuesta.
d)
e)
Figura 10: a) Imagen original. b) Imagen segmentada.c) Realce
a partir de la imagen segmentada.
d) Imagen gold standar. e) Realce a partir del gold standar.
Tabla 2: Porcentaje promedio de píxeles para la imagen de la Figura 10.
% de píxeles que deben
% de píxeles que deben
ser clasificados como
ser clasificados como
vasos sanguíneos
fondo ocular
% de píxeles que fueron
clasificados como vasos
97.1891
6.98577
sanguíneos
% de píxeles que fueron
clasificados como fondo
2.81087
93.0142
ocular
a)
a)
b)
c)
b)
c)
d)
e)
Figura 9: a) Imagen original. b) Imagen segmentada.
c) Realce a partir de la imagen segmentada. d) Imagen gold
standar. e) Realce a partir del gold standar.
Tabla 1: Porcentaje promedio de píxeles para la imagen de la Figura 9.
% de píxeles que deben
% de píxeles que deben
ser clasificados como
ser clasificados como
vasos sanguíneos
fondo ocular
% de píxeles que fueron
clasificados como vasos
93.7348
3.98311
sanguíneos
% de píxeles que fueron
clasificados como fondo
6.26523
96.0169
ocular
d)
e)
Figura 11: a) Imagen original. b) Imagen segmentada.
c) Realce a partir de la imagen segmentada. d) Imagen gold
standar. e) Realce a partir del gold standar.
Tabla 3: Porcentaje promedio de píxeles para la imagen de la Figura 11.
% de píxeles que deben
% de píxeles que deben
ser clasificados como
ser clasificados como
vasos sanguíneos
fondo ocular
% de píxeles que fueron
clasificados como vasos
96.7926
7.64507
sanguíneos
% de píxeles que fueron
clasificados como fondo
3.20736
92.3549
ocular
Tabla 4: Errores porcentuales correspondiente a las 40 imágenes de la base de datos
DRIVE.
objeto deben
fondo deben
objeto deben
fondo deben
ser objeto
ser objeto
ser fondo
ser fondo
Imagen 1
95,28376888
4,71623111
4,185340198
95,8146598
Imagen 2
98,2729249
1,72707510
8,281624289
91,71837571
Imagen 3
91,28608543
8,71391457
5,914570556
94,08542944
Imagen 4
96,4311427
3,56885729
7,374591263
92,62540874
Imagen 5
98,22200767
1,77799232
9,535538618
90,46446138
Imagen 6
98,15500988
1,84499012
8,967346878
91,03265312
Imagen 7
96,50738365
3,49261634
8,522302517
91,47769748
Imagen 8
97,57384341
2,42615658
9,733655082
90,26634492
Imagen 9
98,12263587
1,87736412
8,93133912
91,06866088
Imagen 10
97,97632131
2,02367868
7,56896286
92,43103714
Imagen 11
96,95180073
3,04819927
7,469680055
92,53031994
Imagen 12
95,83858574
4,16141425
6,71252245
93,28747755
Imagen 13
97,0709047
2,92909530
7,90426985
92,09573015
Imagen 14
95,93671413
4,06328586
5,452167328
94,54783267
Imagen 15
96,48153419
3,51846581
5,489863526
94,51013647
Imagen 16
97,65592235
2,34407765
6,887177507
93,11282249
Imagen 17
96,43342271
3,56657728
7,23278783
92,76721217
Imagen 18
96,90819386
3,09180614
6,058742957
93,94125704
Imagen 19
97,24328945
2,75671054
4,187349449
95,81265055
Imagen 20
97,87266493
2,12733507
6,172011271
93,82798873
Imagen 21
96,38666335
3,61333665
4,770172855
95,22982715
Imagen 22
98,73209828
1,26790172
9,492405773
90,50759423
Imagen 23
96,05953321
3,94046679
8,333670751
91,66632925
Imagen 24
98,62593728
1,37406271
12,02358151
87,97641849
Imagen 25
98,3612505
1,63874950
11,53341973
88,46658027
Imagen 26
94,9604243
5,0395757
7,257260282
92,74273972
Imagen 27
98,08306709
1,91693290
8,372394345
91,62760566
Imagen 28
96,29198741
3,70801258
6,687827235
93,31217277
Imagen 29
97,35783255
2,64216744
7,762157851
92,23784215
Imagen 30
93,83460289
6,16539710
5,850923175
94,14907682
Imagen 31
91,90727801
8,09272198
4,66207145
95,33792855
Imagen 32
97,68066752
2,31933248
6,769617798
93,2303822
imagen 34
97,00088034
2,99911966
5,750149339
94,24985066
Imagen 33
95,10231397
4,89768603
11,7497513
88,2502487
Imagen 35
96,58802014
3,41197986
6,104211539
93,89578846
Imagen 36
94,74842291
5,25157709
7,454536274
92,54546373
Imagen 37
91,37613754
8,62386246
4,767693652
95,23230635
Imagen 38
95,47806035
4,52193965
5,448783403
94,5512166
Imagen 39
97,22467757
2,77532243
6,474688188
93,52531181
Imagen 40
97,21746363
2,78253636
5,152907349
94,84709265
Promedio
96,48103688
3,51896311
7,225001685
92,77499831
Se puede observar que los porcentajes
obtenidos en la clasificación de los vasos
sanguíneos y del fondo ocular son muy
elevados. Esto muestra una correcta
segmentación de los mismos por parte del
algoritmo propuesto. También se desprende
de los resultados, que el mayor grado de
confusión se presenta en los píxeles
correspondientes al fondo ocular que son
clasificados como árbol vascular. De la Tabla
anterior se desprende que los promedios de
los porcentajes para los vasos sanguíneos y el
fondo ocular son 96,48% y 92,77%,
respectivamente.
4. Conclusiones
En este trabajo se propuso un método para el
realce del árbol vascular en imágenes de
retinografías con el objetivo de asistir a los
expertos en la formulación de diagnósticos o
en el seguimiento de un tratamiento
específico.
Se desarrolló un entorno gráfico ágil y de
simple aplicación en el que de forma
interactiva y en solo tres pasos se realiza la
segmentación de los vasos sanguíneos
presentes en dichas imágenes.
La aplicación de los filtros en la etapa de preprocesamiento resultó esencial para evitar una
sobre-segmentación de la imagen.
Una vez definido el método de segmentación
y el espacio color a utilizar, se emplearon
imágenes simuladas e imágenes reales
procedentes de una base de datos que incluye
la segmentación gold standar, instrumento
necesario para llevar a cabo la validación de
cualquier método de segmentación. Los
experimentos realizados con estas imágenes
permitieron concluir que el método resulta
robusto frente al ruido y al bajo contraste
existente entre los vasos sanguíneos y el
fondo de la imagen.
Siendo
las
operaciones
involucradas
relativamente sencillas, los tiempos de cálculo
resultaron bajos, lo que hace al método ser
altamente adecuado para estudios en los que
deben segmentarse una gran cantidad de
imágenes.
Se concluye que el método propuesto permite
lograr una segmentación con un índice
promedio de errores a inferir del orden del
6%. Es decir, un 94% de exactitud.
Luego de realizar las pruebas necesarias y
recibir las opiniones de los especialistas, se
diseño una Interfaz Gráfica de Usuario para
facilitar la tarea de los expertos.
Como líneas de trabajo futuras, se continuará
trabajando en la mejora de la técnica
propuesta para mejorar aún más los resultados
obtenidos con el algoritmo propuesto.
[5]
[6]
[7]
5. Bibliografía
[1]
[2]
[3]
[4]
Wilson C, Horton M, Cavallerano J and Aiello LM
2005 Addition of primary care-based retinal
imaging technology to an existing eye care
professional referral program increased the rate of
surveillance and treatment of diabetic retinopathy
Diabetes Care 28 318-322.
Jiménez S, Alemany P, Fondón I, Foncubierta A,
Ancha B and Serrano C 2010 Detección
automática de vasos en retinografías Archivos de
la Sociedad Española de Oftalmología (Elsevier)
85 103-109.
Fong DS, Aiello L, Gardner TW, King GL,
Blankenship G, Cavallerano JD, Ferris FL and
Klein R 2003 Diabetic retinopathy Diabetes Care
26 226-229.
Facon J, Morfología 1996 Matemática. Teoría e
ejemplos. Editora Universitária Champagnat da
Pontífica Universidade Católica do Paraná.
[8]
[9]
Ledley, S., Buas, M., Golab, T. (1990). Fundamentals
of true-color image processing. Proceedings of
10th International conference on Pattern
Recognition, Atlantic City. pp 791-795. 1990.
Plataniotis, K., Venetsanopoulos, A. (2000). Color
Image Processing and Applications. SpringerVerlag. Plataniotis.
Ortiz, F., Torres, F., Puentes, S., Candelas, F., Gil, P.,
(2000). Use of the Hue/Saturation/Intensity
Colour Spaces to the Morphological Processing of
Colour Images. Proceedings of First International
Conference in Graphics and Image Processing.
Saint-Etienne, France. Pp 219-224.
F. Provost and T. Fawcett 1997 Analysis and
Visualization
of
Classifier
Performance:
Comparison Ander Imprecise Class and Cost
Distributions
Proc.
Third
International
Conference on Knowledge Discovery and Data
Mining 43–48.
Staal JJ, Abramoff MD, Niemeijer M, Viergever MA
and Van Ginneken B 2004 Ridge based vessel
segmentation in color images of the retina IEEE
Transactions on Medical Imaging 23 501-509.
http://www.isi.uu.nl/Research/Databases/DRIVE/.