Post on 09-May-2018
transcript
EVALUACION DE LA FUSION DE IMÁGENES SATELITALES USANDO LA
TRANSFORMADA DE WAVELET CON RELACION A LOS METODOS
TRADICIONALES
Grupo de Investigación en Fusión de Imágenes
Ingeniería Catastral y Geodesia, Facultad de Ingeniería, Universidad Distrital
Profesores: Iván Lizarazo Salcedo
Rubén Javier Medina Daza
Estudiantes: Alejandro Vivas Perdomo
Fredy Alexander Bolívar
Carlos Calderón
Samuel Mesa
Alexander Munar
RESUMEN
La fusión de imágenes es un proceso digital que permite reunir en una sola
imagen el detalle espacial de una imagen pancromática y la riqueza espectral de
una imagen multiespectral.
Los procedimientos convencionales de fusión de imágenes están basados en
transformaciones tales como RGB IHS, Brovey y Componentes Principales.
Estos métodos no son completamente satisfactorios debido a la pérdida
relativamente alta de la información espectral original.
En los últimos años se ha empezado a experimentar con otras transformaciones
matemáticas que permitan conservar mejor la riqueza espectral de la imagen
multiespectral original.
Los autores de este documento han realizando una investigación para evaluar la
calidad de las imágenes fusionadas mediante wavelet en comparación con los
métodos tradicionales. En este artículo se hace una revisión de los métodos
tradicionales de fusión de imágenes, de los fundamentos matemáticos de la
descomposición de wavelet, de los conceptos básicos de la fusión basada en
wavelet y, finalmente, se indican los resultados de la fusion de imagenes realizada
en una zona piloto. Dichos resultados indican que la fusion mediante wavelet
permite conservar mejor la riqueza espectral que los metodos convencionales pero
que la ganancia de resolución espacial es inferior a la de aquellos.
ABSTRACT
Image fusion is a digital process used to get one single image that keeps the high
spatial resolution of one panchromatic image and the richness of one
multiespectral image.
Traditional techniques for image fusion are based mainly in the RGBHIS
transformations, Principal Components Analysis and Brovey Transformation,
among others. These methods are not good enough due to the spectral losses of
the original spectral information.
In the recent years, some research have been done about image fusion using
mathematical transformations which seems to preserve a lot the spectral
information from the original images.
The authors have done research work to evaluate the quality of images fusioned
by wavelet and traditional methods. In this article, they review the traditional
approach for image fusion, the mathematical wavelet theory, the basic concepts of
the wavelet fusion method, and communicate the results achieved when fusing
images of a pilot zone. According to these results, the wavelet fusion approach
keeps spectral information higher than traditional methods but the detail does not
improve as well as those.
1. INTRODUCCIÓN
Las imágenes de satélite constituyen, desde su aparición en 1973, una fuente de
datos importante para la ejecución de proyectos sobre medio ambiente y
desarrollo. Las imágenes de satélite, a diferencia de las fotografías aéreas,
adquieren datos de reflectancia de los objetos terrestres, en diferentes longitudes
de onda. Por ello, contienen una gran riqueza de información espectral.
Hasta 1999, las imágenes de satélite multiespectrales sólo alcanzaban
resoluciones espaciales de 20 metros, lo cual limitó su uso a proyectos regionales
de escala pequeña y mediana (léase nivel general y, en el mejor de los casos,
nivel semidetallado). De 1999 en adelante, las imágenes multiespectrales han
alcanzado resoluciones espaciales hasta de 2.50 metros1 y su uso en estudios de
nivel detallado, básicamente de zonas urbanas, ha empezado a intensificarse.
En un intento de ¨mejorar¨ la resolución espacial de las imágenes multiespectrales,
se han generado diversas técnicas para combinar dichas imágenes con otro tipo
de imágenes cuya resolución espacial sea más alta. Dichas técnicas, conocidas
como fusión de imágenes, se han utilizado con relativo éxito desde hace muchos
años y están implementadas en herramientas de software convencionales.
La fusión de imágenes es un campo de investigación continua que abre la
posibilidad de involucrar nuevos conceptos y herramientas, entre ellos algunas
transformaciones matemáticas usadas en tratamiento de señales. Una de ellas es
la transformación wavelet, la cual constituye el objeto de la investigación que
actualmente adelanta el Grupo de Investigación en Fusión de Imágenes, GIF.
2. QUE ES FUSIÓN DE IMÁGENES
La fusión de imágenes es una técnica digital que pretende mejorar una imagen
multiespectral y así potenciar su uso en diversas aplicaciones. Para ello se 1 La resolución espacial de una imagen QuickBirdXS es de 2.50 metros. La resolución de una imagen IKONOSXS es de 4 metros.
combinan los datos de una imagen pancromática (o una imagen de radar o de
otro sensor no óptico) de alta resolución espacial con los de una imagen
multiespectral de alta resolución espectral. El resultado final es una nueva imagen
en la cual se ha conservado una buena parte de la riqueza espectral original y se
ha ganado resolución espacial.
De acuedo con Pohl y van Genderen (1998) la fusión de imágenes se puede usar
para:
– Mejorar la corrección geométrica de una imagen
– Realzar elementos que no son visibles en una imagen
– Complementar datos para mejorar una clasificación
– Detectar cambios en una zona usando datos multitemporales
– Reemplazar datos anómalos de una imagen
– Adicionar datos faltantes en una imagen
La fusión de imágenes se puede realizar por diferentes métodos, según sea el
lugar donde se ejecuta, en la cadena de producción de información espacial:
• A nivel de datos
• A nivel de objetos
• A nivel de decisiones
La fusión de imágenes usualmente se realiza a nivel de los datos, es decir a nivel
de pixel2. Las técnicas para realizar fusión a este nivel pueden ocurrir en diferentes
dominios:
• En el dominio de la frecuencia espacial3
2 Píxel es el elemento mínimo que conforma una imagen. Píxel es una contracción de picture element.3 La frecuencia espacial es una medida de la variación del nivel digital de una imagen en función de la distancia.
• En el dominio espectral
• En un dominio mixto, espacial y espectral
3. MÉTODOS TRADICIONALES DE FUSIÓN DE IMÁGENES
La fusión de imágenes convencional, es decir aquella que está implementada en
los programas comerciales de procesamiento digital de imágenes, permite obtener
resultados aceptables y útiles. Los métodos convencionales son los siguientes:
31 En el dominio de la frecuencia espacial
En esta técnica se busca transferir el contenido de frecuencia de la imagen
pancromática a la imagen multiespectral, aplicando el siguiente algoritmo
(ERDAS,2002):
en donde,
Imagen fusionada
Imagen multiespectral banda k
Imagen pancromática con filtro paso alto
Función de ponderación
32 En el dominio espectral
Las imágenes multiespectrales pueden ser transformadas en un nuevo espacio en
el cual una imagen representa el componente correlacionado, por ejemplo:
• el componente principal 1 (CP1) en el espacio de Componentes Principales
• el componente de intensidad en el espacio de percepción de color IHS
(Intensidad, Matiz y Saturación)
La fusión en el dominio espectral se realiza mediante la ejecución de las
siguientes fases:
• Aplicar una transformación a las bandas de la imagen original
• Reemplazar el componente que representa el detalle espacial por la imagen
pancromática
• Transformar la imagen resultante en el dominio original de la imagen
3.21MÉTODO TRADICIONAL RGBIHS:
Este método incluye (Pohl,1999):
1. Registrar una composición a color RGB de la imagen multiespectral con una
imagen pancromática, usando el mismo tamaño de píxel de esta última.
2. Transformar los componentes RGB en componentes IHS (Intensidad, Matiz y
Saturación).
3. Ajustar el histograma de la imagen pancromática al histograma de la
componente I.
4. Reemplazar el componente I por la imagen pancromática
5. Realizar la transformación inversa IHS a RGB
3.22MÉTODO TRADICIONAL RGBCOMPONENTES PRINCIPALES:
Este método incluye:
1. Obtener los componentes principales de una composición RGB de la imagen
multiespectral.
2. Escalar la imagen pancromática dentro del rango de niveles digitales del
componente principal 1 y reemplazar este componente con dicha imagen.
3. Aplicar una transformación inversa de componentes principales para obtener
una nueva imagen RGB.
3.23MÉTODO TRADICIONAL TRANSFORMADA DE BROVEY
Este método se basa en obtener una nueva imagen RGB usando la Transformada
de Brovey que combina tres bandas originales de una imagen multiespectral con
la imagen pancromática.
El algoritmo usado es (ERDAS, 2002):
Imagen fusionada
Imagen multiespectral banda k
Imagen pancromática
3.24Método tradicional multiplicación
Este método aplica un algoritmo simple de multiplicación, para incorporar el
contenido de la imagen pancromática en la imagen multiespectral (ERDAS, 2002):
En donde,
Imagen fusionada
Imagen multiespectral banda k
4. LA TRANSFORMADA DE WAVELET
Una transformación wavelet permite descomponer una imagen en dos tipos de
coeficientes: aproximación, que representan la riqueza espectral, y detalle, que
representan la resolución espacial.
La descomposición wavelet se puede hacer en diferentes niveles de resolución, lo
cual significa que los componentes de aproximación y detalle se pueden examinar
en diferentes tamaños de píxel (Sanjeevi et al., 2001).
En cada nivel de descomposición wavelet se tiene una resolución espacial igual a
la mitad de la resolución anterior. Por ello, la descomposición de la imagen
pancromática de nivel 2 de la Figura 1 corresponde a un tamaño de píxel
equivalente al de la imagen multiespectral sin descomposición, considerando una
imagen pancromática de resolución espacial de 1m y una imagen multiespectral
de resolución espacial de 4 m.
Figura 1
La descomposición wavelet es un proceso iterativo, con sucesivas
aproximaciones, la cual recibe el nombre de descomposición de árbol.
La imagen original es descompuesta en coeficientes de aproximación (A1) y coeficientes de detalle (D1). Los coeficientes de aproximación (A1) se descomponen en nuevos coeficientes de aproximación (A2), y coeficientes de detalle (D2). Los coeficientes de aproximación (A2), se pueden descomponer en nuevos coeficiente de aproximación (A3) y detalle (D3) y así sucesivamente. Para recuperar la imagen original se adiciona la última descomposición de los coeficientes de aproximación con cada una de las descomposiciones de los coeficientes de detalle, tal como se muestra en la Figura 2 (Misiti, 2002).
Figura 2
5. FUSIÓN DE IMÁGENES USANDO WAVELET
Este método consiste en combinar los coeficientes de la Wavelet de la imagen
pancromática y de la imagen multiespectral. Para el efecto, se tiene en cuenta la
relación entre los tamaños de píxel de la imagen pancromática y de la imagen
multiespectral.
La fusión de imágenes basada en Wavelet puede ser realizada de dos formas
(Nuñez J. et al., 1999):
1). Remplazando los coeficientes de detalle de la Wavelet de la imagen
multiespectral por los coeficientes correspondientes de la imagen pancromática.
2). Adicionando los coeficientes de detalle de la wavelet de la imagen
pancromática a los coeficientes correspondientes de la imagen multiespectral.
Este método de fusión se basa en el hecho que, en la descomposición de wavelet,
las imágenes (l =o,...,n) son versiones sucesivas de la imagen original en escalas decrecientes; así, los primeros planos de la wavelet de la imagen pancromática de alta resolución tienen información espacial que no está presente en la imagen multiespectral.
En el método de sustitución, los planos de wavelet correspondientes a la imagen
multiespectral son eliminados y sustituidos por los planos correspondientes de la
imagen pancromática. Sin embargo, en el método de adición toda la información
espacial de la imagen multiespectral es preservada. Así, la gran ventaja del
método de adición es que la información de detalle de ambos sensores es usada.
6. INVESTIGACIÓN EN FUSIÓN DE IMÁGENES
El Grupo de Investigación en Fusión de Imágenes (GIF) de Ingeniería Catastral y
Gedesia, ha realizado pruebas de fusión usando los métodos convencionales y la
transformación de wavelet en dos zonas pilotos:
Yopal (Casanare)
En esta zona, se fusionaron una imagen multiespectral de LANDSAT5TM
(resolución espacial de 30 m.) y una imagen pancromática de IRS1C (resolución
espacial de 5 metros).
Bogotá (Distrito Capital)
En esta zona, se fusionaron una imagen multiespectral de SPOT2HRV
(resolución espacial de 20 metros) y una imagen pancromática de SPOT2
(resolución espacial de 10 metros).
Los autores no conocen de trabajos de implementación y evaluación de la fusión
wavelet, desarrollados a nivel nacional.
Para realizar su investigación, los autores desarrollaron unos scripts para el
software MATLAB 6.0 que permiten manipular los coeficientes de detalle y
aproximación de las imágenes digitales y obtener la imagen fusionada mediante
wavelet.
La fusión tradicional se realizó utilizando el programa ERDAS IMAGINE 8.5.
7. EVALUACIÓN ESTADÍSTICA DE LOS MÉTODOS DE FUSIÓN
Para calificar el comportamiento de los métodos estándar de fusión de imágenes y
del método wavelet, se calculó la correlación entre las diferentes imágenes
fusionadas y la imagen multiespectral original, para obtener un índice de
conservación de la resolución espectral. Para analizar la ganancia de resolución
espacial se obtuvo la diferencia entre las correlaciones de las diferentes imágenes
fusionadas y la imagen pancromática con respecto a las correlaciones entre la
imagen multiespectral original y la imagen pancromática.
La correlación entre dos imágenes A y B está definida por (ERDAS,2002):
En donde y son los niveles digitales promedio de las imágenes correspondientes
[2] y es el coeficiente de correlación entre las imágenes A y B, dicho coeficiente
varía entre –1 y +1. Se usan los signos + y – para las correlaciones positivas y
negativas, respectivamente. Nótese que es un parámetro adimensional.
8. TABLA DE RESULTADOS
En la siguiente tabla se muestra la correlación entre la imagen multiespectral
original y las imágenes obtenidas en los diferentes métodos de fusión, para la
zona piloto de Bogotá:
Fusión
Métodos
convencionales
Infrarrojo Rojo Verde
RGBIHS 0.743 0.928 0.943
Componentes
Principales
0.834 0.831 0.807
Fusión
métodos
Infrarrojo Rojo Verde
convencionalesBrovey 0.714 0.888 0.825Fusión
métodos wavelet
(Nivel 1)
Infrarrojo Rojo Verde
Haar 0.9648 0.9655 0.9547Discreta de Meyer 0.9621 0.9707 0.9700
Biortonormal inversa 0.9547 0.9655 0.9648Dabuiches 0.9595 0.9686 0.9680
Coiflet 0.9618 0.9704 0.9698
En la siguiente tabla se muestra la ganancia de resolución espacial para las
imágenes obtenidas en los diferentes métodos de fusión:
Imágenes fusionadas
método wavelet
(Nivel 3)
Ganancia BandaVerde
Ganancia Banda Roja
Ganancia Banda
Infrarrojo
Haar 0.062 0.050 0.116Discreta de Meyer 0.064 0.053 0.115
Biortonormal inversa 0.061 0.050 0.116Dabuiches 0.061 0.050 0.116
Coiflet 0.063 0.051 0.114
Imágenes fusionadas métodos
convencionales
Ganancia BandaVerde
Ganancia Banda Roja
Ganancia Banda
Infrarrojo Brovey 0.14 0.127 0.463
Componentes Principales 0.168 0.157 0.452Multiplicación 0.126 0.105 0.636
HIS 0.146 0.148 0.627
En las Figuras 1 a 6 se pueden ver las imágenes fusionadas.
Figura 1. Imagen fusionada usando el método RGB IHS.
Figura 2. Imagen fusionada usando Componentes principales
Figura 3. Imagen Fusionada usando el método de Multiplicación.
Figura 4. Imagen Fusionada usando la Transformada de Brovey
Figura 5. Imagen Fusionada mediante la Transformada de Wavelet Biortonormal Inversa
Figura 6. Imagen fusionada usando la transformada wavelet Discreta de Meyer
9. ANÁLISIS DE RESULTADOS:
En las tablas indicadas antes puede verse que los métodos convencionales
permiten conservar la resolución espectral, en un porcentaje promedio variable
entre 81 y 88%. El orden de desempeño espectral, de mayor a menor, de los
métodos es el siguiente: multiplicativo, RGBIHS, Componentes Principales y
Brovey. La banda del infrarojo es la que menos conserva la resolución espectral
(en promedio el 75%) frente a las bandas verde (88%) y roja (90%).
La ganancia de resolución espacial, por su parte, está entre 12.7 y 63%. La mejor
ganancia promedio corresponde a la banda del infrarrojo (54.45%) frente a las
bandas roja (13%) y verde (14%).
La fusión por el método wavelet (nivel 3) permite conservar la resolución espectral
en un porcentaje promedio variable del orden del 96%. El orden de desempeño
espectral, de mayor a menor, de los métodos es el siguiente: Discreta de Meyer,
Coiflet, Haar, Biortonormal Inversa y Dabuiches. Todas las bandas conservan, en
promedio, la misma resolución espectral: 96%.
La ganancia de resolución espacial, por su parte, está entre 6% y 11%. La mayor
ganancia corresponde a la banda infrarroja (en promedio el 11%) frente a las
bandas roja (6%) y verde (5%).
Los resultados obtenidos por los autores de este trabajo, en la zona piloto de
Yopal muestran una tendencia similar a la aquí indicada: la fusión wavelet permitió
conservar la resolución espectral en un porcentaje promedio entre 82 y 90% frente
a una conservación entre 50 y 80% en los métodos tradicionales. Por su parte, la
ganancia de resolución espacial mediante wavelet está entre el 26% y el 42%
frente a la ganancia entre el 32 y el 78% de los métodos tradicionales.
Otra manera de evaluar la calidad de la fusión es examinar la exactitud temática
de la clasificación de las imágenes fusionadas y compararla contra la exactitud
temática de la clasificación de la imagen multiespectral original. Esa evaluación se
está realizando actualmente como parte del trabajo de investigación reseñado en
este artículo.
CONCLUSIONES
De acuerdo con los resultados obtenidos en las zona pilotos de Bogotá y de Yopal
se puede concluir:
La fusión de imágenes mediante wavelet permite conservar mejor la resolución
espectral original pero la ganancia de resolución espacial es menor que la
obtenida por los métodos convencionales.
El método de fusión de imágenes usando la transformada de Wavelet es una
alternativa promisoria a los métodos de fusión convencionales en aquellos casos
en donde se requiera conservar al máximo la riqueza espectral original de la
imagen multiespectral.
Los resultados de una fusión de imágenes dependen en buena parte de las
condiciones específicas de la zona en la cual se realice el trabajo.
BIBLIOGRAFÍA
ERDAS Inc, 2002. ERDAS IMAGE Tour Guides.
Misiti M. et al, 2002. Wavelet Toolbox for use with MATLAB.
Nuñez. Jorge et al. 1999, MultiresolutionBased Image fusion with Additive
Wavelet Descomposition, IEEE Transactions on Geoscience and Remote
Sensing. 37 (3).
Pohl, C. 1999. Tools and Methods for fusion of images of different spatial
resolution. International Archives of Photogrammetry and Remote Sensing.
32 (743).
Pohl, C. y van Genderen, J.L., 1998. Multisensor image fusion in remote senisng:
Concepts, methods and applications. International Journal of remote
Sensing, 19 (5).
Sanjeevi S. et al, 2001. Comparison of conventional and wavelet transform
techniques for fusion of IRS1C LISSIII and PAN images, 22nd Asian
Conference on Remote Sensing.