遥感科学与应用技术

异源遥感影像融合的辐射分辨率规范化方法

  • 高永刚 , * ,
  • 徐涵秋
展开
  • 1. 福州大学环境与资源学院,福州 350116
  • 2. 福州大学遥感信息工程研究所,福州 350116

作者简介:高永刚(1976-),男,博士,讲师,主要从事遥感图像处理和卫星测高研究。E-mail:

收稿日期: 2014-08-24

  要求修回日期: 2014-09-22

  网络出版日期: 2015-06-10

基金资助

福建省自然科学基金项目(2012J01171、2012J01169)

国家科技支撑计划项目(2013BAC08B01-05)

海岛(礁)测绘技术国家测绘地理信息局重点实验室基金(2010B09)

Standardization of Radiation Resolution for Fusion of Multi-sensor Remote Sensing Images

  • GAO Yonggang , * ,
  • XU Hanqiu
Expand
  • 1. College of Environment and Resources, Fuzhou University, Fuzhou 350108, China
  • 2. Institute of Remote Sensing Information Engineering, Fuzhou University, Fuzhou 350108, China
*Corresponding author: GAO Yonggang, E-mail:

Received date: 2014-08-24

  Request revised date: 2014-09-22

  Online published: 2015-06-10

Copyright

《地球信息科学学报》编辑部 所有

摘要

遥感影像融合算法,在增强多光谱影像空间分辨率的同时,可实现影像间的信息互补,提高遥感影像的解译能力。异源影像的融合受影像间配准精度及其在时相、空间分辨率和辐射分辨率之间差异的影响,而不同辐射分辨率对异源遥感影像融合所产生的影响及其纠正方法还缺乏深入的研究。为此,本文提出了异源影像融合的辐射分辨率规范化方法。该方法在统一像元值量化区间的基础上,将其乘以相同的比例系数转换到更高的辐射分辨率的量化区间,以减小融合过程由于数据位数取舍而引起的影像信息丢失。研究表明:本文所提出的辐射分辨率规范化方法的取整融合或以实数形式融合,其结果几乎没有差别;而其他转换方法的取整结果均较实型结果差。由于直接采用反射率值进行融合会使其结果产生严重的光谱失真,因此,应采用辐射分辨率规范化方法将反射率值进行转换后再做融合。

本文引用格式

高永刚 , 徐涵秋 . 异源遥感影像融合的辐射分辨率规范化方法[J]. 地球信息科学学报, 2015 , 17(6) : 713 -723 . DOI: 10.3724/SP.J.1047.2015.00713

Abstract

Today, an abundant supply of remote senseing data with various spatial, radiative and spectral resolutions from multi-platforms has provided rich sources of information for scientific research. In order to overcome the limitation of a particular type of remote sensing data in application, and take the full advantage of other remote sensing data, image fusion technique has been frequently used to enhance the resolution of remote sensing data and perform scale transformation among images obtained from different remote sensing platforms. A proper image fusion algorithm can not only improve the refinement of details of a low-resolution multispectral image, but also preserve its spectral information. Moreover, it can utilize the complementary information, reduce the data redundancy, and enhance the interpretation ability of the images. The fusion result is influenced by many factors, such as image fusion algorithm, seasonal difference, registration error, spatial and radiation resolution difference, etc. The images used in this study have different radiation resolutions, including 8 bit, 11 bit and 16 bit. In order to reduce the influence of differences in the radiation resolution and in the resultant data dynamic range on image fusion, this paper proposed a method for the standardization of radiation resolution. Based on the unification of quantization intervals for digital number, the transformation from low to high radiation variability through multiplication of a same proportion coefficient can reduce the loss of image information, which is caused by data bits conversion in the fusion process. The results show that the proposed standardization method of radiation resolution can be applied to remote sensing data with different quantization intervals and is easy to be programmed. When using the proposed standardization method for fusing different images, the resultant fusion results are almost identical to each other, either using real number value or integer value. Whereas, when using other quantization methods, the resultant fusion image with real number value is generally better than that with integer value. The standardization of radiation resolution is a necessary step for image fusion when using reflectance-based images, because all image fusion algorithms will cause a serious spectral distortion to the fusion results.

1 引言

遥感影像在应用处理中,通常采用影像融合的方法来实现影像间的信息互补,消除数据间的信息冗余,增强影像的解译能力和可靠性,抑制数据的不确定性,以提高影像识别的精度。光学多光谱遥感影像融合,是将同源或异源间高空间分辨率的全色影像与低空间分辨率的多光谱影像进行融合,达到对多光谱影像增强的目的。遥感影像融合根据传感器平台不同,可分为同源影像融合和异源影像融合。同源影像融合是来自同一传感器平台的遥感影像间的融合;异源影像融合是源自不同传感器平台的遥感影像间的融合,其根据影像辐射分辨率的差异可分为相同辐射分辨率的异源遥感影像融合和不同辐射分辨率的异源遥感影像融合。
同源影像融合与异源影像融合相比,其显著优势是受传感器误差影响小、无配准误差和时相误差;而异源影像的融合由于受到不同传感器之间的光谱差异、时相差异、影像空间、辐射分辨率间差异等影响,其融合效果不如同源影像。当前,常用的多光谱影像融合算法有IHS相关变换法[1-8]、Brovey相关变换法[9-10]、主成分分析法(PCA)[11]、SFIM(Smoothing Filter-based Intensity Modulation)算法[12-13]、小波变换法(Wavelet)[4,14-19]、SVR(Synthetic Variable Ratio)算法[20-21]、Pansharp算法[22]、Ehlers算法[23]和Gram-Schmidt算法[24]等,其生成的融合影像的光谱保真度和高频信息融入度都具有明显差异。
目前,对于相同辐射分辨率的异源遥感影像间的融合研究较多,如SPOT全色和TM或ETM+多光谱影像间的融合等;而不同辐射分辨率的遥感影像间的融合研究相对较少,主要是由于融合不同辐射分辨率的异源遥感影像除了需对遥感影像进行配准等预处理外,还需顾及影像辐射分辨率差异的影响,以避免融合影像因影像辐射分辨率的不同,而引起的光谱失真和高频信息融入度降低等问题。在不同辐射分辨率的异源影像融合时,由于辐射分辨率的差异,使得原本具有较好光谱保真度的融合算法的融合结果出现较大的光谱失真,例如,IHS等替换类算法的融合结果会出现光谱信息的严重丢失,其融合后影像仅具有全色影像的光谱信息。由于目前尚无统一的辐射分辨率规范化方法,故在各种算法对不同辐射分辨率的异源遥感影像间的融合研究的基础上,本文提出了异源遥感影像间辐射分辨率规范化方法。

2 原理与方法

2.1 辐射分辨率规范化

辐射分辨率是各波段传感器接收辐射数据的动态范围[25],其具体表现为辐射数据的量化级数。因此,根据辐射分辨率的量化级数不同,异源影像融合又可表述为相同量化级数融合和不同量化级数融合。同源影像融合和相同量化级数影像间融合时,由于其影像的像元值(Digital Number, DN)量化范围相同,因此可直接利用DN值进行融合;而不同量化级数的影像间融合时,由于参与融合影像之间的DN值存在量化级数差异,为了消除量化级数差异对光谱保真度和高频信息融入度的影响,需将它们转换到相同的量化级数范围内,其转换公式如式(1)所示。
D N = DN 2 n - 1 2 m 1 (1)
式中,DN′为转换后影像的DN值;DN为原始影像的灰度值;n为原始影像的辐射分辨率量化级数;m为转换后影像的辐射分辨率量化级数。
利用式(1)进行辐射分辨率规范化时,通常有2种转换方法:(1)从高辐射分辨率转换到低辐射分辨率;(2)从低辐射分辨率转换到高辐射分辨率。第1种转换方法容易引起高辐射分辨率影像信息的丢失,尤其是当影像融合过程中需进行直方图匹配时,易造成高频信息的大量丢失。因此,为了减少直方图匹配过程中的光谱失真和高频信息融入度降低的问题,应向辐射分辨率量化级数高的影像转换,融合后再变换到多光谱影像的辐射分辨率量化级数。
如果参与融合的遥感影像已做辐射校正,即将影像的DN值转换为反射率的形式,此时影像的像元值为介于0-1之间的实型数。而对于不同量化级数的遥感影像融合时,利用式(1)转换后的影像像元值同样也为实型数。为了减小由于数据小数位数的取舍引起的融合后影像光谱失真和高频信息融入度下降,融合前可将反射率的数值(或规范化后影像的DN值)乘以相同的比例因子后进行融合,并将影像值再除以该比例因子还原回融合前的量化区间。
新像元值的计算公式如式(2)所示。
P V = PV × scale (2)
其比例因子的计算如式(3)所示。
sc ale = 10 e (3)
比例因子中的e及其计算公式如式(4)-(8)所示。
e = min e P , e M - 1 (4)
e P = ceil lg R p (5)
e M = ceil lg R M (6)
R P = 2 n - 1 P max = 2 n - 1 max ( P V P ) (7)
R M = 2 n - 1 Mu l max = 2 n - 1 max ( P V M ) (8)
式中,PV'为量化区间变换后的像元值;PV为量化区间变换前的像元值(DN值或反射率);scale为比例因子,即变换到预定计算空间的最大可乘系数;e为最大可乘系数的指数; e P 为全色影像最大可乘系数的指数; e M 为多光谱影像最大可乘系数的指数;RP为全色影像的像元值最大值与转换后量化区间最大值的比值;Pmax为全色影像的像元值(DN值或反射率)最大值;RM为多光谱影像的像元值最大值与转换后量化区间最大值的比值;Mulmax为多光谱影像的像元值(DN值或反射率)最大值;PVP为全色影像的像元值;PVM为多光谱影像的像元值;n为转换后影像的辐射分辨率量化级数(bit位数);ceil为向最近的大整数取整符号,如ceil(5.1) = 6、ceil(-5.1) = -5、ceil(-5.6) =-5。本文所采用遥感影像的辐射分辨率最大量化级数为16 bit,所以n最大通常可取16或32。如果2幅影像中一幅的辐射分辨率为16 bit,另一幅为8 bit,当将影像的像元值转换到16 bit时,采用本文算法与直接采用线性拉伸进行转换的原理相同。
如果需将融合后影像的像元值还原回原始的多光谱影像的量化区间,则其量化区间还原公 式为:
F = F scale (9)
式中,F为将PV′融合后获得的融合影像像元值;F′为与PV具有相同量化区间的融合影像像元值。
当参与融合影像的像元值为反射率时,则仅用式(9)还原即可;但当参与融合影像的像元值为整形的DN值形式时,还需按式(10)进一步变换。
D N F = F 2 m - 1 2 n 1 (10)

2.2 融合效果评价方法

遥感影像融合旨在实现不同分辨率遥感影像在空间分辨率和光谱信息方面的互补,因此,对于遥感影像融合效果的评价,应综合考虑高频信息的融入度和光谱信息的保真度。本文将定量评价指标分为光谱保真度和高频信息融入度2种类型。对光谱保真度方面的评价,主要采用常用的偏差(Deviation, D)[25]、相对偏差(Relative Deviation, Dr)[26]、均方根误差(Root Mean Square Error, RMSE)[26]、灰度偏差指数(Gray Variance Index, GVI)[27]和相对整体维数综合误差(Erreur Relative Globale Adimensionnelle de Synthèse, ERGAS)[21,28]5个评价指标。对高频信息融入度的评价采用相关系数(Correlation Coefficient, CC)[21]作为评价指标。由于影像的空间细节信息主要保留在影像的高频部分,因此,为去除影像低频部分对计算相关系数的干扰,首先对融合影像和高分辨率全色影像做Laplacian高通滤波,然后计算滤波后两影像之间的相关系数[14,21]

3 融合算法的实验与分析

实验以经过配准后的Landsat-7 ETM+多光谱影像、EO-1 ALI全色影像、IKONOS全色和多光谱影像的影像数据为例(表1),采用Brovey[9]、BT[10]、IHS、HIS_TU[3,6]、PCA、SVR、SFIM、Wavelet、Gram-Schmidt、Pansharp和Ehlers 11种融合算法对影像DN值直接进行融合实验,并通过对上述算法融合影像的评价分析,获得不同融合算法受辐射分辨率影响的规律;然后,利用上述11种融合算法在不同的量化区间进行融合数据规范化的实验。由于实验过程中所产生的融合图像和评价数据量很大,限于论文篇幅,同时为便于理解,本文所提出量化方法,以及对实验效果进行对比,本文对DN值融合实验给出了各种融合算法的融合结果,而对不同量化区间的对比中仅给出了遥感商业软件中附带的Gram-Schmidt算法和Pansharp算法的融合影像及定量评价数据,对其他9种融合算法仅给出了不同量化区间的融合效果分析。
Tab. 1 Information of remote sensing image

表1 卫星遥感影像基本参数信息

卫星类型 传感器 波段使用情况 空间分辨率(m) 辐射分辨率(bit) 获取时间
Landsat-7 ETM+ 多光谱 30 8 2003-05-29
EO-1 ALI 全色 10 16 2003-03-26
IKONOS AVNIR-2 多光谱 4 11 2003-06-22
全色 1 11 2003-06-22

3.1 DN值影像的规范化融合实验

通过对图1目视判读可知,不同辐射分辨率异源影像间融合后,获得影像的光谱失真较相同辐射分辨率影像融合明显,由于IHS、PCA和Wavelet(小波基为dbl3)3种融合算法,在融合过程中采用全色影像替换多光谱影像的某些分量,使得融合影像的光谱信息丢失严重,融合后影像仅具有全色的光谱特征。Brovey、BT、IHS和IHS_TU在融合过程中,采用多光谱影像几个波段的和或均值生成模拟全色影像,由于多光谱影像与全色影像的DN量化区间相差很大,所以融合后影像光谱信息丢失同样严重。SFIM目视效果最好,Gram-Schmidt、Pansharp、Ehlers融合效果次之。
Fig. 1 Original and fused images of ETM+ and ALI

图1 ETM+和ALI原始影像及各算法融合影像

对于不同辐射分辨率的异源影像间融合,又可分为2种:(1) 全色影像的辐射分辨率,大于多光谱影像的辐射分辨率;(2) 全色影像的辐射分辨率,小于多光谱影像的辐射分辨率。对于第1种情况,SFIM、SVR等替换类融合算法的光谱保真度相对较好,而IHS、PCA和Wavelet等替换类相关融合算法的融合影像光谱信息损失明显,使得融合影像几乎仅具有全色影像的光谱特征。引起此类算法光谱严重失真的主要原因,是由于替换类融合算法在影像融合时,直接或间接利用全色影像对多光谱影像分解后的某个分量进行替换,而辐射分辨率的差异使得全色影像相对于多光谱影像的像元值大很多,因此,使得多光谱影像信息相对于融入的全色影像高频信息,对最终像元值大小的决定作用可忽略,从而最终获得的融合影像光谱信息损失严重。比值类相关融合算法(BT、Brovey、SVR、SFIM)在融合时,需采用模拟低分辨率全色影像和全色影像做比值运算,然后与多光谱影像进行相乘,该类算法相当于对多光谱影像的像元值,进行了不同比例的放大和缩写,因此,其融合影像较替换类影像的光谱保真度好。对于第2种情况,PCA和Wavelet等替换类相关融合算法其融合影像光谱信息保真度好,IHS融合影像存在明显光谱失真,并且IHS及其相关算法的高频信息几乎没有融入;而SVR等替换类融合算法的高频融入度相对较好,且光谱信息也得到较好的保持。
光谱保真度的各定量评价指标中(表2),SFIM的光谱保真度的各项评价指标值均最小,其与目视评判一致,其他融合算法的光谱保真度的各指标互有变化;高频信息融入度方面,光谱失真严重的IHS、IHS_TU、PCA、BT等的高频信息融入度最好。Gram-Schmidt算法的光谱保真度和高频信息融入度兼顾较好。
Tab. 2 Table of fusion quantitative evaluation of ETM+ and ALI images

表2 ETM+和ALI融合影像定量分析表

融合算法 评价指标
D Dr RMSE GVI ERGAS CC
Brovey 77.022 1333.736 478.069 248.805 28.673 0.987
BT 117.106 2028.315 724.800 377.297 32.603 0.987
IHS 401.873 7064.376 1224.275 1288.285 31.780 1.000
IHS_TU 534.256 9390.553 2169.392 1712.113 32.510 1.000
PCA 178.130 3130.792 1973.866 570.795 32.113 1.000
SFIM 0.519 8.999 4.540 2.315 1.729 0.893
SVR 1.264 21.489 10.829 5.698 4.137 0.972
Wavelet 20.392 357.142 100.444 80.251 34.973 0.743
Gram-Schmidt 0.604 10.343 6.906 2.843 2.796 0.950
Pansharp 0.957 16.126 7.821 4.490 3.206 0.969
Ehlers 2.267 25.347 6.929 9.080 2.896 0.954
综上定性和定量分析表明,影像辐射分辨率的差异对融合效果有较大影响。本文选取光谱保真度和高频信息融入度均较好的Gram-Schmidt算法,对ETM+和ALI影像采用7种不同的量化区间形式进行融合实验。这7种数据量化区间为:区间(1)为像元值的原始量化区间;区间(2)为8 bit实型数区间;区间(3)为8 bit整型数区间;区间(4)为16 bit实型数区间;区间(5)为16 bit整型数区间;区间(6)为本文算法量化得到整型数区间;区间(7)为本文算法转换到8 bit区间,乘以比例因子后的整型数区间。
通过定性分析可知(图2),Gram-Schmidt算法在8 bit实型数和整型数2个区间上,即将16 bit全色影像转换到8 bit量化区间融合时,融合影像中建筑、道路等地物的边界较模糊,其高频信息融入度不够;同时,在8 bit整型数区间的融合影像上植被区域存在局部光谱失真;其他区间融合影像的目视判读效果接近,在其他量化区间的目视效果相近。由定量分析可知(表3),Gram-Schmidt算法在8bit实型数和整型数2个区间上的CC分别为0.526和0.478,为7个量化区间中最小的2个,其他量化区间的CC值均大于0.94;8 bit的2个量化区间Dr等光谱保真度评价指标的结果均较大,表明在2个量化区间光谱失真明显;Gram-Schmidt算法在采用像元值原始量化区间的融合结果与本文所提量化区间转换算法的融合结果的光谱保真度评价指标相差不大,表明它们具有相似的光谱保真度,但本文所提算法所得融合影像的CC较好。
Fig. 2 Original and fused images of ETM+ and ALI in difference dynamic ranges of DN values

图2 ETM+和ALI在不同量化区间的DN值融合影像

Tab. 3 Table of fusion quantitative evaluation of ETM+ and ALI in difference dynamic ranges of DN values

表3 ETM+和ALI在不同量化区间的DN值融合影像定量评价表

评价指标 量化区间
区间(1) 区间(2) 区间(3) 区间(4) 区间(5) 区间(6) 区间(7)
D 0.604 0.823 0.842 0.848 0.847 0.790 0.606
Dr 10.343 13.548 13.891 13.996 13.960 13.544 10.384
RMSE 6.906 8.200 8.382 7.970 7.975 7.874 6.900
GVI 2.843 3.699 3.761 3.739 3.751 3.544 2.832
ERGAS 2.780 3.208 3.278 3.129 3.132 3.080 2.793
CC 0.949 0.526 0.478 0.975 0.972 0.975 0.959
综上,采用实型数融合获得的影像比采用整型数融合获得影像的光谱保真度和高频信息融入度均好。本文所提出的方法与将2影像的量化区间直接转换到16 bit量化区间融合时的融合结果相似;主要是本文设定的最大量化区间也为16 bit。当将全色影像由16 bit量化区间转到8 bit量化区间时,采用本文所提算法的效果比直接转换的效果好得多。当在不同辐射分辨率的异源影像融合时,如果不想采用本文所提算法进行量化区间转换,那么,为了减少融合过程中由于量化区间差异引起的光谱失真和高频信息损失,建议直接将参与融合影像中辐射分辨率低的影像转换到辐射分辨率高的影像区间进行融合。

3.2 反射率影像的规范化融合实验

遥感影像辐射校正的模型有很多种形式,由于所有辐射校正模型获得的反射率数值的区间均为[0, 1],因此,本文仅以经ICM模型[29]辐射校正后获得的反射率为例,将ETM+和ALI的异源辐射校正影像和IKONOS同源辐射校正影像作为数据源。经试验表明,Pansharp融合算法在像元值为反射率数值或辐射分辨率为同量化区间时,其融合效果最好。因此,本文以Pansharp融合算法为例,进行了不同量化区间的融合效果对比,其他融合算法仅给出了结论。
ETM+和ALI辐射校正影像融合时,对其反射率值分别采用8种量化区间的数据形式进行融合。这8种数据量化区间为:区间(1)为将反射率转换到各自原始量化区间,融合后按8 bit转换到[0,1]区间;区间(2)为将反射率值均转换到8 bit区间,采用实型数融合,然后转换到[0,1]区间;区间(3)为将反射率值均转换到8 bit区间,取整融合,融合后取整,然后转换到[0,1]区间;区间(4)为将反射率值均转换到16 bit区间,采用实型数融合,然后转换到的[0,1]区间;区间(5)为将反射率值均转换到16 bit区间,取整融合,融合后取整,然后转换到[0,1]区间;区间(6)为将反射率值采用本文转换算法转换后,以实型数融合,然后转换到[0,1]区间;区间(7)为将反射率值采用本文转换算法转换后,取整融合,融合后取整,然后转换到[0,1]区间;区间(8)为直接利用反射率融合。
IKONOS辐射校正影像融合时,对其反射率值分别采用5种量化区间的数据形式进行融合。这5种数据量化区间为:区间(1)为将反射率值转换到11 bit区间,采用实型数融合,然后转换到[0,1]区间;区间(2)为将反射率值转换到11 bit区间,取整融合,融合后取整,然后转换到[0,1]区间;区间(3)为将反射率值采用本文转换算法转换后,以实型数融合,然后转换到[0,1]区间;区间(4)为将反射率值采用本文转换算法转换后,取整融合,融合后取整,然后转换到[0,1]区间;区间(5)为直接利用反射率融合。
由定性分析可知(图3、4),直接利用反射率融合获得的融合影像的光谱失真较大。在定量分析中(表4、5),直接用反射率融合获得的融合影像的光谱保真度和高频信息融入度各指标的计算结果均最差,其他量化区间获得的融合影像的各评价指标相差不大。无论将反射率转换到哪个量化区间进行融合,其融合后影像的定量指标和目视效果,均比直接利用反射率进行融合获得的融合影像要好。此外,采用实型数形式融合获得的融合影像,要比采用整型数形式融合获得影像的光谱保真度好,所有区间转换后的融合影像,都比直接以反射率融合的高频信息融入度高。本文所提出的辐射分辨率规范化方法,取整后融合和直接以实型数形式融合几乎没有差别;其他量化区间转换方法的取整结果均较实型数型差。因此,本文所提出的量化区间转换方法与传统量化区间转换方法相比,更适合于融合过程需进行直方图匹配的融合算法。
Fig. 3 Original and fused images of ETM+ and ALI reflectance image in difference dynamic ranges

图3 ETM+和ALI反射率融合影像

Fig. 4 Original and fused images of IKONOS reflectance image in difference dynamic ranges

图4 IKONOS反射率融合影像

Tab. 4 Table of fusion quantitative evaluation of ETM+ and ALI reflectance image in difference dynamic ranges

表4 ETM+和ALI反射率融合影像定量评价表

评价指标 量化区间
区间(1) 区间(2) 区间(3) 区间(4) 区间(5) 区间(6) 区间(7) 区间(8)
D 0.0033 0.0033 0.0033 0.0033 0.0033 0.0033 0.0033 0.0192
Dr 19.2190 19.2190 19.1905 19.1308 19.1310 19.1308 19.1312 25.3279
RMSE 0.0152 0.0152 0.0152 0.0152 0.0152 0.0152 0.0152 0.0286
GVI 0.0157 0.0157 0.0157 0.0157 0.0157 0.0157 0.0157 0.0198
ERGAS 3.8873 3.8873 3.8951 3.8855 3.8855 3.8855 3.8855 4.3886
CC 0.9795 0.9795 0.9674 0.9789 0.9789 0.9789 0.9789 0.9262
Tab. 5 Table of fusion quantitative evaluation of IKONOS reflectance image in difference dynamic ranges

表5 IKONOS反射率融合影像定量评价表

评价指标 量化区间
区间(1) 区间(2) 区间(3) 区间(4) 区间(5)
D 0.0052 0.0052 0.0052 0.0052 0.0179
Dr 32.7489 32.7497 32.7497 32.9489 39.6572
RMSE 0.0227 0.0227 0.0227 0.0227 0.0275
GVI 0.0023 0.0023 0.0023 0.0023 0.0039
ERGAS 3.9744 3.9743 3.9744 3.9744 4.1326
CC 0.9521 0.9521 0.9521 0.9521 0.8736
异源不同辐射分辨率遥感影像融合过程中,如果需将全色影像与多光谱影像的亮度分量或者第一主成分等进行直方图匹配,来减弱不同传感器的大气和辐射角度的影响,那么,在进行融合前应将遥感影像的辐射分辨率量化区间规范化。规范化时应向辐射分辨率高的量化区间规范化;在规化过程中,由于存在数据取整的问题,故其取整误差会对融合效果产生影响。通常在量化区间转换中,量化区间不变的一方,融合结果的数据特性保持度好。因此,本文为减少数据取舍所引起的误差,提出了数据规范化的方法。在具体应用中,针对融合效果的不同,需采用不同的量化方向。该方法在量化区间规范化过程中,对区间大小没有要求,可任意转换,转换后将所有数据同乘以相同的比例因子转换到较高的量化区间后取整,以减少数据取整的误差;融合后再将所有数据除以相同的比例因子将量化区间还原。将全色影像向多光谱影像量化区间规范化时,其融合后影像定量评价指标中光谱保真度的各评价指标表现较好;将多光谱影像向全色影像量化区间规范化时,其融合后影像定量评价指标中的高频信息融入度评价指标表现略好;对于这2种规范化方向在定性评价时目视判读几乎无法发现其差异,定量评价中各评价指标的差别也甚小。
异源不同辐射分辨率遥感影像融合时,如果融合算法采用全色影像与模拟全色影像进行比值运算来实现高频信息的融入(如SFIM、SVR、Pansharp等),且模拟全色影像由全色影像生成,或者由多光谱影像与全色影像间进行统计分析获得时,那么,该类算法融合前后无需进行辐射分辨率的量化统一,可直接进行融合。由于模拟全色影像近似仅包含全色影像的低频信息,其与全色影像进行比值运算后生成一个大小与常数1非常接近的无量纲数值,因此,融合后影像的量化区间与原始多光谱影像的量化区间相同。当融合算法是替代算法(如IHS、PCA、Gram-Schmidt等)或者模拟全色影像是由多光谱影像取均值(如Brovey、IHS_TU等)等获得时,如果融合后无需定量评价或者将融合结果再进行量化区间转换,可直接进行融合且融合结果的光谱保真度和高频信息融入度不会受到影响,但其融合结果的量化区间介于2个融合影像的量化区间之间很难,再次进行量化区间转换,且直接定量评价的结果很差,与定性评价结论相差甚远。
当遥感影像采用反射率的形式进行融合时,无论哪种融合算法直接利用0-1的反射率值进行融合,其融合结果均会造成较大的光谱失真和高频信息丢失。因此,需要将反射率值转换到适当的量化区间后再进行融合。如果融合过程中,融合算法不需要通过进行直方图匹配来减弱不同传感器的大气和辐射角度的影响,无论参与融合影像的辐射分辨率是否相同,均可直接将反射率转换到任意辐射分辨率量化区间后,采用量化区间转换值的实型数或整型数进行融合,也可采用本文方法进行区间规范化;如果融合算法需进行直方图匹配,为了减小取整误差的影响,应采用本文所提出的量化区间规范化方法。

4 结论

(1)本文提出的辐射分辨率规范化方法,可很好地解决不同辐射分辨率影像间的融合,以及像元值为反射率的影像间的融合问题;规范化后的融合影像光谱保真度较好。该方法在量化区间规范化过程中,对区间大小没有要求,可任意转换,易于实现,并且很好地解决了由于数据取舍所引起的误差对融合结果的影响。
(2)采用实型数形式融合获得的融合影像要比采用整型数形式融合获得影像的光谱保真度好,所有区间转换后的融合影像,都比直接以反射率融合的高频信息融入度高。本文所提出的辐射分辨率规范化方法,取整后融合和直接以实型数形式融合几乎没有差别;其他量化区间转换方法的取整结果均较实型数型差;所有融合算法直接采用反射率值,进行融合所得融合影像光谱失真严重,应将反射率值转换到适当的量化区间后再进行融合。
(3)通过辐射分辨率规范化,能很好地解决影像像元值量化区间不统一的问题;削弱影像融合和其他相关信息提取时,由于量化区间差异引入的噪声;同时,解决了不同量化区间影像的直方图匹配问题,以及有些融合算法无法对实型数据进行融合的问题。

The authors have declared that no competing interests exist.

[1]
赵英时. 遥感应用分析原理与方法(第二版)[M].北京:科学出版社,2013.

[2]
Carper W J, Lillesand T M, Kiefer R W.The use of intensity-hue-saturation transformations for merging SPOT panchromatic and multispectral image data[J]. Photogrammetric Engineering & Remote Sensing, 1990,56(4):459-467.

[3]
Tu T M, Huang P S, Hung C L, et al.A fast intensity-hue-saturation fusion technique with spectral adjustment for IKONOS imagery[J]. IEEE Geoscience and Remote Sensing Letters, 2004,1(4):309-312.

[4]
Zhang Y, Hong G.An IHS and wavelet integrated approach to improve Pan-Sharpening visual quality of natural colour IKONOS and QuickBird images[J]. Information Fusion, 2005,6:225-234.

[5]
Choi M.A new intensity-hue-saturation fusion approach to image fusion with a tradeoff parameter[J]. IEEE Transaction on Geoscience and Remote Sensing, 2006,44(6):1672-1682.

[6]
Tu T M, Cheng W H, Chang C P, et al.Best tradeoff for high-resolution image fusion to preserve spatial details and minimize color distortion[J]. IEEE Geoscience and Remote Sensing Letters, 2007,4(2):302-306.

[7]
Rahmani S, Strait M, Merkurjev D, et al.An adaptive IHS Pan-Sharpening method[J]. IEEE Geoscience and Remote Sensing Letters, 2010,7(4):746-750.

[8]
Liang C C, Tsai W H.Image fusion with no gamut problem by improved nonlinear IHS transforms for remote sensing[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014,52(1):651-663.

[9]
Pohl C, Genderen J L Van. Multisensor image fusion in remote sensing: Concepts, methods and applications[J]. International Journal of Remote Sensing, 1998,19(5):823-854.

[10]
Liu J G.Evaluation of Landsat-7 ETM+ panchromatic band for image fusion with multispectral bands[J]. Natural Resources Research, 2000,9(4):269-276.

[11]
Chavez P S, Sides S C, Anderson J A.Comparison of three different methods to merge multiresolution and multispectral data: Landsat TM and SPOT panchromatic[J]. Photogrammetric Engineering and Remote Sensing, 1991,57(3):295-303.

[12]
Liu J G.Smoothing filter-based intensity modulation: A spectral preserve image fusion technique for improving spatial details[J]. International Journal of Remote Sensing, 2000,21(18):3461-3472.

[13]
徐涵秋. 基于SFIM算法的融合影像分类研究[J].武汉大学学报(信息科学版), 2004,29(10):920-923.

[14]
Zhou J, Civco D L, Silander J A.A wavelet transform method to merge Landsat TM and SPOT panchromatic data[J]. International Journal of Remote Sensing, 1998,19(4):743-757.

[15]
Pajares G, Cruz de la M J. A wavelet-based image fusion tutorial[J]. Pattern Recognition, 2004,37:1855-1872.

[16]
Arivazhagan S, Ganesan L, Subash Kumar T G. A modified statistical approach for image fusion using wavelet transform[J]. Signal, Image and Video Processing, 2009,3:137-144.

[17]
Yang S, Wang M, Jiao L C.Fusion of multispectral and panchromatic images based on support value transform and adaptive principal component analysis[J]. Information Fusion, 2012,13:177-184.

[18]
Adu J H, Gan J H, Wang Y, et al.Image fusion based on nonsubsampled contourlet transform for infrared and visible light image[J]. Infrared Physics & Technology, 2013,61:94-100.

[19]
Dong Z Y, Wang Z M, Liu D W, et al.SPOT5 Multi-Spectral (MS) and Panchromatic (PAN) image fusion using an improved wavelet method based on local algorithm[J]. Computers & Geosciences, 2013,60:134-141.

[20]
Zhang Y.A new merging method and its spectral and spatial dffects[J]. International Journal of Remote Sensing, 1999,20(10):2003-2014.

[21]
高永刚,徐涵秋.利用直方图匹配和低通滤波改进的SVR融合算法[J].武汉大学学报(信息科学版), 2012,37(11):1316-1320.

[22]
Zhang Y.A new automatic approach for effectively fusing Landsat 7 as well as IKONOS images[C]. IEEE/IGARSS'02, Toronto, Canada, 2002,6:24-28.

[23]
Ehlers M.Spectral characteristics preserving image fusion based on Fourier domain filtering[C]. Proceedings of SPIE, 2004,5574:1-13.

[24]
Laben C A, Bernard V, Brower W. Process for enhancing the spatial resolution of multispectral imagery using Pan-sharpening[P]. United States Patent: 6011875, 2000-01-04.

[25]
梁顺林,李小文,王锦地.定量遥感:理念与算法[M].北京:科学出版社,2013.

[26]
王海晖,彭嘉雄,吴巍,等.多源遥感图像融合效果评价方法研究[J].计算机工程与应用,2003(25):33-37.

[27]
吴连喜,梁波,刘晓梅,等.保持光谱信息的遥感图像融合方法研究[J].测绘学报,2005,34(2):118-122.

[28]
María G, Xavier O, Octavi F, et al.A low computational-cost method to fuse IKONOS images using the spectral response function of its sensors[J]. IEEE Transaction on Geoscience and Remote Sensing, 2006,44(6):1683-1691.

[29]
徐涵秋. Landsat遥感影像正规化处理的模型比较研究[J].地球信息科学,2008,10(3):294-301.

文章导航

/