Orginal Article

Assessing the Accuracy of Spatial and Temporal Image Fusion Model of Complex area in South China

  • WU Mingquan , * ,
  • NIU Zheng ,
  • WANG Changyao
Expand
  • The State Key Laboratory of Remote Sensing Science, Institute of Remote Sensing and Digital Earth, CAS, Beijing 100101, China
*Corresponding author: WU Mingquan, E-mail:

Received date: 2013-11-15

  Request revised date: 2013-12-26

  Online published: 2014-09-04

Copyright

《地球信息科学学报》编辑部 所有

Abstract

Due to cloud coverage and obstruction, it is difficult to obtain useful images during the critical periods of monitoring vegetation using medium resolution spatial satellites such as Landsat and Satellite Pour l'Observation de la Terre (SPOT), especially in pluvial regions. A solution for fine-scale vegetation research is to blend the data from both high temporal resolution sensors (e.g., MODIS) and moderate ground resolution satellites (e.g., Landsat) to generate synthetic observations with characteristics of both. In recent decades, several approaches have been proposed to enhance the temporal frequency of high-resolution spatial satellite observations. However, there is a lack of application research of those methods, especially in South China where the climate is complex and the region is scattered with broken terrain. In order to evaluate the application ability of spatial and temporal image fusion models in South China, five spatial and temporal image fusion models were assessed in this paper. The five models are LORENZO model, LIU model, statistical model, STARFM and ESTARFM. Using the Landsat-ETM+ and MODIS data, the five methods were tested in an area near the Nanjing city of Jiangsu Province. QualitativeE:\app:ds:qualitativeevaluationE:\app:ds:evaluation and quantitativeE:\app:ds:quantitativeevaluationE:\app:ds:evaluation methods were used to evaluate the similarity between the simulated images and the real Landsat ETM+ images. Results showed that except Lorenzo model, the other models were able to produce synthetic images very similar to the actual observed images with a correlation coefficients r of higher than 0.6. The more information, such as distance, temporal and spectral information, isused in the image fusion, the synthetic fusion image could better reflect the detailed features of land surface.

Cite this article

WU Mingquan , NIU Zheng , WANG Changyao . Assessing the Accuracy of Spatial and Temporal Image Fusion Model of Complex area in South China[J]. Journal of Geo-information Science, 2014 , 16(5) : 776 -783 . DOI: 10.3724/SP.J.1047.2014.00776

1 引言

近年来为了实现大范围、高精度、快速变化的地表信息遥感监测,需要高时空分辨率的遥感数据[1-9]。为满足大范围、高精度、快速变化的地表信息遥感监测对高时空分辨率遥感数据的需求,解决目前卫星遥感数据获取能力不足的问题,一些学者提出了一种能够综合低空间分辨率遥感数据的高时间分辨率特征和中、高空间分辨率遥感数据的高空间分辨率特征的技术,即多源遥感数据时空融合技术。Cherechali[10]和Fortin[11]基于线性光谱混合模型和最小二乘法提出了一种从低空间分辨率像元反射率推算出高空间分辨率像元反射率的方法,但该方法未考虑像元反射率的空间可变性;Zhukov[12]和Maselli[13]利用邻近像元信息分别提出了改进方法,Lorenzo综合利用邻近像元信息和光谱信息提出了一种改进性方法[14];Liu基于尺度下降理论提出了物理模型法和统计回归方法[15];Roy等[16]基于MODIS的反射率影像和Landsat-ETM+反射率影像的时间变化一致的假设,提出了一种半物理模型的融合方法;Gao等[17]提出了一种自适应遥感图像时空融合方法(Spatial and Temporal Adaptive Reflectance Fusion Model,STARFM),不仅考虑了与目标像元的距离和光谱相似性,还考虑了时间上的差异;Thomas等[18]在Gao的STARFM方法基础上,提出了一种自适应遥感图像时空融合变化监测方法(Spatial Temporal Adaptive Algorithm for mapping Reflectance Change,STAARCH);Zhu等[19]在Gao的STARFM方法基础上,提出了一种考虑像元反射率的时间变化特征的改进型自适应遥感图像时空融合方法(Enhanced Spatial and Temporal Adaptive Reflectance Fusion Model,ESTARFM);邬明权等[20]基于类别反射率的时间变化特征与类内像元反射率的时间变化特征一致的假设,提出了一种能够从前期高空间分辨率影像和时序的低空间分辨率影像获得时序高空间分辨率影像的多源遥感数据时空融合方法(STDFM)。
上述多源遥感数据时空融合模型主要是基于线性混合模型,以及类内像元反射率一致等假设,因而容易受到像元反射率空间可变性和时间特征可变性的影响,使得一些模型难以适用于复杂地区。同时,由于我国南方地区复杂的作物类型、地块破碎度、地形条件等情况,使得一些即使在国外较复杂地区测试成功的模型也难以适用于我国南方地区。因此,针对5种主流的多源遥感数据时空融合模型(LORENZO模型、LIU模型、统计回归模型、STARFM和ESTARFM),本文对比研究了其在我国南方复杂破碎地形的应用能力,并分析了像元空间可变性与时间特征变化对模型的影响。

2 研究区及数据预处理

(1)研究区范围:纬度32°0′31.52″~32°7′21.1″,经度118°0′54.83″~118°1′43.07″,该区域为典型的丘陵区域,其土地覆盖类型主要包括林地、水域、城镇和农田。由于STARFM和ESTARFM模型需要逐高分辨率像元进行运算,受PC机内存限制,这两种算法无法在大范围内应用,国外算法研究与测试均选择小块区域,因而本研究也选择一小块区域进行对比实验。
(2)多源遥感数据时空融合模型需要输入中低空间分辨率影像进行融合。本研究采用的中低空间分辨率影像是Landsat-ETM+和MODIS数据MOD09GA产品。不同模型采用的中低空间分辨率影像的数目不尽相同,如表1所示。采用ENVI-Flaash大气校正模块对Landsat-ETM+数据进行大气校正,采用1:10 000的地形图对大气校正后的影像进行了几何校正,其误差小于0.7个像元。采用MODIS重投影工具(MODIS Reprojection Tool,MRT)对MOD09GA产品进行了重投影、格式转换、重采样等处理。重投影为UTM-WGS84坐标系,转换成Geo-tif格式,并采用最近邻域法重采样到480 m空间分辨率,以便于后续的运算。采用ETM+模拟MODIS影像进行MOD09GA产品的几何校正,几何校正误差为0.6个像元。模拟MODIS影像是利用Pixel Aggregate重采样方法重采样ETM+数据至480 m生成的。
Tab.1 Input parameters of models

表1 各模型输入参数

模型 输入数据 验证数据
MODIS数据 Landsat数据 分类影像 Landsat数据
波段 数据日期 波段 数据日期 波段 数据日期
LORENZO模型 MOD02 2002-10-08
2002-10-24
ETM+4 2002-10-08 30 m分类图 ETM+4 2002-10-24
LIU模型 MOD02 2002-10-08 15 m分类图 ETM+4 2002-10-08
统计模型法 MOD02 2002-10-08 15 m分类图 ETM+4 2002-10-08
STARFM MOD02 2002-10-08
2002-10-24
ETM+4 2002-10-08 ETM+4 2002-10-24
ESTARFM MOD02 2002-10-08
2002-10-24
ETM+4 2002-10-08
2002-11-09
ETM+4 2002-10-24

3 多源遥感数据时空融合模型识别分析

3.1 时空融合方法

本研究对比测试了5种多源遥感数据时空融合方法:LORENZO模型、LIU模型、统计模型法、STARFM、ESTARFM。
(1) 土地利用识别分类
土地利用分类图是LORENZO模型、LIU模型和统计模型法的输入参数之一。其中,LIU模型和统计模型法需要输入空间分辨率高于中分辨率影像的土地利用分类图。LORENZO模型输入的土地利用分类图采用30 m的多波段Landsat影像(1-6、7波段)进行分类获得,LIU模型和统计模型法采用Landsat全色波段与多光谱波段进行融合获得的15 m融合影像进行分类。
采用实地调查和目视采样相结合的方法获取训练样本和验证样本。利用GPS实地测量研究区各土地利用类型样本30个,结合目视解译,补充经验样本200个,共计采样230个。随机将样本分成两部分:一部分用作训练样本,一部分用作验证样本。采用最大似然方法进行研究区土地利用分类,分成农田、城镇、水域、林地和裸地5大土地利用类型,并利用验证样本进行精度评价,结果表明分类总体精度高于87%。
(2) 模型测试
多源遥感数据时空融合模型均是逐波段进行融合的,以近红外波段为例对各模型进行了测试。输入MODIS影像、基准Landsat-ETM+4波段影像、土地利用分类图等输入数据,各模型输出融合近红外波段影像。各模型的输入数据详见表1
(3) 精度评价
以2002年10月8日和2002年10月24日的真实Landsat ETM+4波段影像为验证影像,分别采用目视解译和相关性分析方法,定性和定量评价融合影像的结果精度。由于本研究测试的多源遥感数据时空融合技术的目标是融合出可以替代真实中高空间分辨率影像的融合影像,因而其融合效果评价标准是融合影像与真实影像间的相似程度,相似性越高,融合效果越好。
目视解译方法给出各方法融合影像与真实影像之间的相似程度,定性判读各方法结果的优劣。相关性分析方法采用决定系数R2、方差var(a)、平均绝对误差MAD、偏差bias和均方根误差RMSE等评价指标定量评价融合影像与真实影像之间的相似性,并通过制作融合影像与真实影像之间的二维散点图来反映融合的效果。其中,R2表示融合影像与真实影像间的相似程度,R2融合影像与真实影像间的相似程度越高,var(a)、MAD、bias和RMSE等评价指标反映融合影像与真实影像间的误差,误差指标值越小,融合影像与真实影像间的误差越小。

3.2 模型实验结果与分析

3.2.1 试验结果
输入中低空间分辨率影像和分类影像等输入数据,LORENZO模型、STARFM模型和ESTARFM模型输出2002年10月24日Landsat-ETM+4波段融合高空间分辨率影像,LIU模型和统计模型法输出为2002年10月8日的Landsat-ETM+ 4波段融合高空间分辨率影像。各模型的输出结果如图1所示。
Fig.1 outputs of different models and real images

图1 各方法融合结果与真实影像

3.2.2 精度评价
(1) 定性评价
融合影像目视解译发现:LORENZO模型、LIU模型和统计模型法的融合结果精度较差,LORENZO模型的融合结果与真实影像间的相似度最低,但其能够反映出一定的影像细节特征,LIU模型和统计模型法的融合结果在总体上与真实影像间有一定的相似性。从局部放大图可看出,这2种方法的融合结果都具有较严重的斑块化现象。STARFM模型的融合结果要优于上述3种方法,STARFM模型融合影像与真实影像非常相似,在细节特征上也能够与真实影像较相似,但是在局部放大图上我们可以看到,STARFM模型的结果也存在一定的斑块化现象。ESTARFM模型的融合结果是最好的,不仅在融合结果图上,在融合结果局部放大图上,均可以看到其结果与真实影像间非常相似,能够反映影像的细节特征,而且没有上述其他方法的斑块化现象。
(2) 定量评价
表2可看出,LORENZO模型的R2最低, var a 、MAD、bias和RMSE等误差最大,融合效果最差;ESTARFM模型的融合影像R2最高,误差最小,融合效果最好;而其他模型的融合效果介于二者之间。这主要是由于LORENZO模型、LIU模型和统计模型法是直接基于线性混合模型的,其目标是获得类别反射率均值,因而无法获得真正的像元反射率,但LIU模型和统计模型法采用更高分辨率的分类影像数据。同时,统计模型法在线性混合模型的解算过程中采用迭代法,因而这两种模型的融合效果要好于LORENZO模型。STARFM和ESTARFM模型则均可以获得真正的像元反射率,但在解算像元反射率的过程中,各方法考虑像元反射率的空间异质性、时间特征等方面的差异,使得融合效果各不相同。STARFM考虑了空间异质性的影响,但认为像元反射率的时间特征是线性的,ESTARFM不仅考虑了空间异质性的影响,而且进一步考虑了像元反射率的非线性特征,因而ESTARFM的融合效果要好于其他模型。
Tab.2 Comparison of different model results

表2 各模型融合效果比较

模型 R2 var(a) MAD bias RMSE
LORENZO模型 0.198 0.081 0.236 0.273 0.395
LIU模型 0.635 0.026 0.119 0.169 -0.049
统计模型法 0.641 0.026 0.121 0.165 -0.034
STARFM 0.752 0.019 0.105 -0.050 0.146
ESTARFM 0.887 0.009 0.069 -0.034 0.095
由融合影像与真实影像间的散点图(图2)可看出,与参数定量评价结果相同,ESTARFM模型的散点图最接近1:1线,STARFM模型次之,LORENZO模型最差,LIU模型和统计模型法介于STARFM模型和LORENZO模型之间。
Fig.2 Scatter diagram between the fusion image and the real image

图2 融合影像与真实影像间的散点图

3.2.3 分析与讨论
通过对融合影像的定性和定量分析,我们发现LORENZO模型、LIU模型、统计模型法、STARFM模型和ESTARFM模型中,ESTARFM模型的融合影像与真实影像间的相关性最高,融合效果最好,STARFM模型次之,LIU模型和统计模型法又劣于STARFM模型,LORENZO模型效果最差。
按照融合算法的原理可以将5种融合算法归结为2大类:第1类为直接基于线性光谱混合模型的融合算法,包括LORENZO模型、LIU模型和统计模型法,该类模型直接利用线性光谱混合模型进行融合;第2类为基于线性光谱混合模型推导模型的融合算法,包括STARFM模型和ESTARFM模型,这类模型在线性光谱混合模型的基础上,推导出最终的融合模型。通过对融合结果分析可知,基于线性光谱混合模型推导模型的融合算法精度要高于直接基于线性光谱混合模型的融合算法。其主要原因为:
(1)直接基于线性光谱混合模型的融合算法解算的高空间分辨率像元反射率只是类别平均反射率,而不是真正的像元反射率。基于线性光谱混合模型,在已知丰度矩阵和低空间分辨率像元反射率的情况下,仅能获得类别平均反射率,即使是考虑像元反射率的空间可变性的融合方法,其解算的也只是子区域内的类别平均反射率,而不能获得真正的高空间分辨率像元反射率。如LORENZO模型的主要目标是提取时序的类别平均反射率,而不是提取高时空分辨率的融合影像。因此,这类融合算法的融合结果会存在较严重的斑块化现象,使得融合影像难以反映地物的细节特征,特别是在森林、农田等大区域的同类土地利用类型中。
(2)直接基于线性光谱混合模型的融合算法解算的过程中容易出现异常值。根据线性光谱混合模型,高、低空间分辨率卫星数据之间的线性混合模型存在残差项,因而在解算过程中,不可避免的存在残差和异常值。
然而,直接基于线性光谱混合模型的融合算法虽获得融合效果精度要差于线性光谱混合模型推导模型的融合算法,但由于直接基于线性光谱混合模型的融合算法是基于成熟的线性光谱混合模型,因而这类模型具有较为明确的物理意义。
除了模型理论上的系统差异引起融合效果的差异外,其他因素也会影像融合效果,这些因素包括:(1)传感器系统误差的影响。传感器系统误差包括传感器波段设置差异、数据采集时间差异、光谱响应函数差异、几何配准误差和大气校正误差等。5个模型中,只有ESTARFM模型考虑了传感器系统误差的影像,并提出了纠正方法,因而其融合效果要好于其他方法。(2)像元反射率空间可变性的影响。一般认为,相邻区域内的像元光谱反射率具有较高的相似性,然而由于地形、土壤类型和形态等环境因素,邻近像元的反射率也存在空间可变性。纠正像元反射率的空间可变性对融合效果的影响是各融合模型的主要差异之处。LIU模型和统计模型法未考虑像元反射率的空间可变性的影响,LORENZO模型通过距离相似性和光谱相似性来纠正像元反射率的空间可变性的影响,STARFM模型除采用距离相似性和光谱相似性外,还采用了时序光谱差异,而ESTARFM模型则利用时序光谱相似性和距离来纠正像元反射率的空间可变性的影响。各方法采用的信息包括距离信息、光谱信息和时间信息,采用的信息越多,则融合的效果也越好。为纠正像元反射率的空间可变性的影响,各种融合算法中往往采用在一个窗口子集内进行解算的方法来降低像元反射率的空间可变性的影响。
①模型解算方法。在解算线性混合模型过程中,不同模型采用的解算方法也不一致,从而解算精度也不同。如LORENZO模型利用最小二乘法进行解算,而统计回归模型法则采用迭代回归的方法进行解算。
②模型假设的差异。各类模型的构建过程中都存在假设前提,多源遥感数据时空融合模型的最基础前提是多源、多尺度遥感数据间满足线性混合模型;其次是土地覆盖类型在融合期间是不发生变化的。模型假设的不一致,使得各方法的适用领域也不一致。如自适应时空融合方法及其改良方法考虑像元反射率的时间变化特征时,仅简单的采用线性模型,使得其难以应用于复杂地区的长时间序列影像融合。
本研究只针对我国江苏南京的小区域进行了各方法的对比试验,由于各地区土地覆盖类型等方面的差异,不同区域的测试结果不同,因此,本试验结果仅适用于我国南方丘陵农田区域,对其他类型区域需要进一步的试验与分析。同时,由于STARFM和ESTARFM模型不适用于大范围的应用,若需进行大范围应用时,建议采用STDFM等适用于大范围应用的融合方法。

4 结论

针对LORENZO模型、LIU模型、统计模型法、STARFM模型和ESTARFM模型等多源遥感数据时空融合模型方法,从覆盖丘陵区域江苏省南京市的Landsat数据(轨道号:120/38)中选取一小块区域作为多源遥感数据时空融合对比研究的实验区域,对比研究了LORENZO模型、LIU模型、统计模型法、STARFM模型和ESTARFM模型等多源遥感数据时空融合模型方法,并以目视解译方法和相关分析方法定性和定量评价了各模型的融合精度,其中,定量评价指标包括R2 var a 、MAD、bias和RMSE等。
实验结果表明,LIU模型、统计模型法、STARFM模型和ESTARFM模型获得的融合影像与真实影像之间都具有较高的相关性,相关系数都高于0.6,而Var(a)、MAD、RMSE和bias等指标均较低。其中,ESTARFM模型的融合影像与真实影像间的相关性最高,融合效果最好,STARFM模型次之,LIU模型和统计模型法劣于STARFM模型,而LORENZO模型效果最差,其获得的融合影像与真实影像之间没明显的相关性。同时,各模型融合影像与真实影像之间的散点图也表明,采用LIU模型、统计模型法、STARFM模型和ESTARFM模型方法获得的模拟影像与真实影像之间相关性较好,而LORENZO模型获得的融合影像与真实影像之间的相关性则较低。
与MODIS影像相比,采用各模型获得的融合影像具有更高的空间分辨率,能够在一定程度上反映地物的细节特征。然而,LORENZO模型、LIU模型、统计模型法等基于线性光谱混合模型由于解算的高空间分辨率像元反射率都只是土地利用类型平均反射率,而不是真正的像元反射率,因此,这类融合算法的融合结果会存在较严重的斑块化现象,使得融合影像难以反映地物的细节特征,特别是在大区域的同类土地利用类型中。
像元反射率的空间可变性的纠正是各融合模型的主要差异之处。各模型采用距离、光谱和时间等信息进行像元反射率的空间可变性的纠正,采用的信息越多,融合效果越好。

The authors have declared that no competing interests exist.

[1]
Hugo C, Paulo G, Mário C.Contribution of multispectral and multitemporal information from MODIS images to land cover classification[J]. Remote Sensing of Environment, 2008,112:986-997.

[2]
Wang DC, Gong JH, Chen LD, et al.Spatio-temporal pattern analysis of land use/cover change trajectories in Xihe watershed[J]. International Journal of Applied Earth Observation and Geoinformation, 2011,14:12-21.

[3]
DabrowskaZ K, Gruszczynska M, Lewinski S, et al. Application of remote and in situ information to the management of wetlands in Poland[J]. Journal of Environmental Management, 2009,90(7):2261-2269.

[4]
Davranche A, Lefebvre G, Poulin B.Wetland monitoring using classification trees and SPOT5 seasonal time series[J]. Remote Sensing of Environment, 2010,114(3):552-562.

[5]
Toshihiro S, Cao V P, Aikihiko K, et al.Analysis of rapid expansion of inland aquaculture and triple rice-cropping areas in a coastal area of the Vietnamese Mekong Delta using MODIS time-series imagery[J]. Landscape and Urban Planning, 2009,92:34-46.

[6]
蔡学良,崔远来.基于异源多时相遥感数据提取灌区作物种植结构[J]. 农业工程学报,2009,25(8):124-130.

[7]
Aleixandre V, Frédéric B, Marie W.A multisensor fusion approach to improve LAI time series[J]. Remote Sensing of Environment, 2011,115:2460-2470.

[8]
Wu CY, Niu Z, Gao S.The potential of the satellite derived green chlorophyll index for estimating midday light use efficiency in maize, coniferous forest and grassland[J]. Ecological Indicators, 2012,14:66-73.

[9]
Wu CY, Chen JM, Huang N.Predicting gross primary production from the enhanced vegetation index and photosynthetically active radiation: Evaluation and calibration[J]. Remote Sensing of Environment, 2011,115(12):3424-3435.

[10]
CherechaliS, Amram O, Flouzat G. Retrieval of temporal profiles of reflectances from simulated and real NOAA-AVHRR data over heterogeneous landscapes[J]. International Journal of Remote Sensing, 2000,21:753-775.

[11]
Fortin J P, Bernier M, Battay A E,et al. Estimation of surface variables at the sub-pixel level for use as input to climate and hydrological models[R]. Final report to Centre national d'Études Spatiales (France)Rapport de recherché INRS-Eau, 2000.

[12]
Zhukov B, Oertel D, Lanzl F, et al.Unmixing-based multisensor multiresolution image fusion[J]. IEEE Transactions on Geoscience and Remote Sensing, 1999,37:1212-1226.

[13]
Maselli F.Definition of spatially variable spectral endmembers by locally calibrated multivariate regression analyses[J]. Remote Sensing of Environment, 2001,75:29-38.

[14]
Lorenzo B, Michele M, Roberto C.Combining medium and coarse spatial resolution satellite data to improve the estimation of sub-pixel NDVI time series[J]. Remote Sensing of Environment, 2008,112:118-131.

[15]
Liu DS, Pu RL.Downscaling thermal infrared radiance for subpixel land surface temperature retrieval[J]. Sensors,2008,8:2695-2706.

[16]
Roy D P, Ju JC, Philip L, et al.Multi-temporal MODIS-Landsat data fusion for relative radiometric normalization, gap filling, and prediction of Landsat data[J]. Remote Sensing of Environment, 2008,112:3112-3130.

[17]
Gao F, Masek J, Schwaller M, et al.On the blending of the Landsat and MODIS surface reflectance: Predicting daily Landsat surface reflectance[J]. IEEE Transactions on Geoscience and Remote Sensing, 2006,44:2207-2218.

[18]
Thomas H, Michael AW, Nicholas C, et al.A new data fusion model for high spatial- and temporal- resolution mapping of forest disturbance based on Landsat and MODIS[J]. Remote Sensing of Environment, 2009,113:1613-1627.

[19]
Zhu XL, Chen J, Gao F, et al.An enhanced spatial and temporal adaptive reflectance fusion model for complex heterogeneous regions[J]. Remote Sensing of Environment,2010,114:2610-2623.

[20]
Wu MQ, Niu Z, Wang CY, et al.The use of MODIS and Landsat time series data to generate high resolution temporal synthetic Landsat data using a spatial and temporal reflectance fusion model[J]. Journal of Applied Remote Sensing, 2012:6:1-8.

Outlines

/