Study on the Factors that Influencing High Spatio-temporal Resolution NDVI Fusion Accuracy in Tropical Mountainous Area

  • GAO Shupeng , 1 ,
  • LIU Xiaolong , 2, * ,
  • SONG Jinling 3 ,
  • SHI Zhengtao 1 ,
  • YANG Lei 3 ,
  • GUO Libiao 2
Expand
  • 1. Faculty of geography, Yunnan Normal University, Kunming 650500, China
  • 2. School of Information Engineering, Inner Mongolia University of Technology, Hohhot 010051, China
  • 3. Faculty of Geographical Science, Beijing Normal University, Beijing 100875, China
*LIU Xiaolong, E-mail:

Received date: 2021-05-20

  Request revised date: 2021-06-29

  Online published: 2022-04-25

Supported by

National Natural Science Foundation of China(42001277)

National Key Research and Development Program of China(2016YFB0501502)

Water Conservancy Science and Technology Project of Yunnan Provincial Water Resources Department(2014003)

PhD student academic Newcomer Award funded Projects of Yunnan Normal University(01300205020503233)

Copyright

Copyright reserved © 2022

Abstract

As an important data source in remote sensing application, high spatiotemporal resolution NDVI time series data is of great significance for dynamic change monitoring of land cover, especially in tropical mountainous areas, where the surface elevation changes significantly, climate conditions are complex and spatiotemporally heterogeneous. Many multi-spatiotemporal data fusion models have been proposed by scholars. However, it is rare to analyze the fusion accuracy of these models and their influencing factors in tropical mountainous areas. This study takes the Naban River Watershed in the tropical mountainous area of Southwest China as the study area. Four representative models have been selected from three types of spatiotemporal data fusion methods, namely weight function-based method, Bayesian-based method, and Hybrid method. The four models are Spatial and Temporal Adaptive Reflectance Fusion Model (STARFM), Enhanced Spatial and Temporal Adaptive Reflectance Fusion Model (ESTARFM), Spatial and Temporal Adaptive Reflectance Fusion Model (RASTFM), and Bayesian Spatiotemporal Fusion Model (BSFM). Among them, STARFM and ESTARFM are weight function-based method, BSFM is Bayesian-based method, and RASTFM is Hybrid method. This study carries out analysis of data source selection, terrain of the study area, landscape spatial heterogeneity, pixel numerical accuracy of fusion model, and atmospheric conditions such as thin clouds and haze. The results show that, firstly, the fusion accuracy decreases with the increase of time interval and its relative variation. A better match in sensor spectrum between the two input data results in a higher fusion accuracy. OLI is better than Sentinel-2 while MODIS is better than VIIRS. Compared with unadjusted data, data adjusted by the Bidirectional Reflectance Distribution Function (BRDF) can effectively improve fusion accuracy.Secondly, fusion accuracy is negatively correlated with spatial heterogeneity. Fusion accuracy decreases when spatial heterogeneity increases. There is a strong negative correlation between fusion accuracy and spatial heterogeneity at elevations. Fusion accuracy decreases when slope increases. In comparison, slope aspect has little influence on fusion accuracy. The influence of terrain on RASTFM is smaller when compared with models. Thirdly, the more high-quality high-resolution raw data as input data for the model, the higher the fusion accuracy will be. Fourthly, thin clouds and haze have a significant negative impact on the fusion accuracy. The results have important values as references for improving the high spatial-temporal data fusion model in tropical mountainous areas and establishing high spatiotemporal resolution NDVI data sets in complex geographical environment.

Cite this article

GAO Shupeng , LIU Xiaolong , SONG Jinling , SHI Zhengtao , YANG Lei , GUO Libiao . Study on the Factors that Influencing High Spatio-temporal Resolution NDVI Fusion Accuracy in Tropical Mountainous Area[J]. Journal of Geo-information Science, 2022 , 24(2) : 405 -419 . DOI: 10.12082/dqxxkx.2022.210281

1 引言

高时空分辨率遥感数据对土地覆被动态变化监测、应急抢险、灾害监测等具有显著的技术和效率优势,而从中计算的归一化差值植被指数(Normalize Difference Vegetation Index, NDVI)是代表植被绿色度和活力的重要植被指数,也广泛应用于许多重要的研究领域[1,2,3]。当前国际在轨对地观测商业卫星已经具备了高时空分辨率观测能力(如Planet、Urthecast、DigitalGlobe等微小卫星群),但这类数据目前多为商业化数据,大规模应用成本较高,因此使用已有的公开存档观测数据融合生产高时空分辨率影像数据集的研究依然是遥感学科获取高时空分辨率遥感数据的关键技术之一[4,5,6]。多源遥感数据时空数据融合技术旨在集成高空间分辨率遥感影像(如Landsat、Sentinel-2等)的空间细节信息与高时间分辨率遥感影像(如MODIS(Moderate Resolution Imaging Spectroradiometer)、VIIRS (Visible and Infrared Imager/Radiometer Suite)、Sentinle-3等)的时间变化信息,生成高时空分辨率遥感数据集。根据时空融合模型的差别,研究学者将目前所用的时空数据融合方法大体分为5类:权重函数法、光谱解混法、概率统计法、人工智能法和多种混合法[5,7]
权重函数法时空融合模型,源于Gao等[8]提出的STARFM(Spatial and Temporal Adaptive Reflectance Fusion Model)。基本思想是假设地表针对同一地物、相同时刻(当日)的遥感观测中,高空间分辨率影像与低空间分辨率影像之间存在一定的线性(或非线性)映射关系,进而在建立的高、低空间分辨率像元数值函数映射关系的基础上,利用滑动窗口加上权重系数来预测缺失时间的影像,实现高时空分辨率影像融合。权重函数法时空融合模型最具有代表性的方法之一是由Zhu等[9]提出的ESTARFM(Enhanced Spatial and Temporal Adaptive Reflectance Fusion Model)模型。该算法在STARFM的基础之上,利用两对不同时间节点的Landsat数据和MODIS数据来估算待预测时间节点的影像,有效提高了融合算法在地表异质性变化强烈区域的融合精度。光谱解混法是将区域内的反射率理解为不同材料光谱的混合,即光谱中每个像元的线性加和,这类方法更多的是应用于高光谱数据[5,10],如Coupled Nonnegative Matrix Unmixing[10]、ESTDFM(Enhanced Spatial and Temporal Data Fusion Model)[11]。概率统计法是利用贝叶斯统计概率作为融合框架,建立缺失影像与已知影像之间的关系,然后通过计算出现已知影像的前提条件下的概率,并将概率最大化从而求解得到缺失影像。基于概率统计的方法需要较多的数据作为先验知识来建立影像之间的关系,但优点在于不要求波段响应严格匹配[5,12],如NDVI-BSFM(Bayesian Spatiotemporal Fusion Model)融合算 法[12]。人工智能法利用由学习算法建模的高分辨率和低分辨率图像对之间的关系来估算待预测时间节点的影像。包括机器学习法和深度学习法。深度学习方法能够很好地刻画统计学过程的非线性关系,如Song等[13]基于深度卷积神经网络算法提出了DCNNs(Deep Convolutional Neural Networks)-based learning模型。人工智能法能够学习并较为准确的刻画已知、缺失时相影像之间的非线性关系,但对计算机性能有较高要求,且需要大量训练样本及训练时间,融合效率较低,而且代码和程序大多不开源,目前尚未大范围应用[14,15]。多种混合法则结合了上述2个或3个类别的思想,最新的时空融合模型大多都属于此类方法。如Zhu等[16]提出的FSDAF(Flexible Space-temporal DAta Fusion Model)模型在预测土地覆被突变方面有较好的效果。Zhao等[17]提出的RASTFM(Robust Adaptive Spatial and Temporal Fusion Model)算法通过对像素级与特征级融合算法的组合,减少了对几何配准的依赖性,并增强了算法的鲁棒性。
截至目前,遥感影像时空融合方法研究已取得较大的进展,针对不同的应用目的和地物光谱反射性质,不断有新的、精度更可靠的时空数据融合算法涌现,部分学者也对融合算法的应用案例及其影响因素等进行了研究[5,18]。如Jarihani等[19]、Chen等[20]都探讨了不同融合策略对融合精度的影响[19, 20];Liu等比较了5种经典时空融合模型(STARFM、unmixing-based data fusion (UBDF)、FSDAF、Fit-FC、One-Pair Learning Method)分析了景观空间异质性的时间变化对融合精度的影响[21];Zhou等[22]分析了传感器之间的几何误差,辐射误差和空间分辨率对融合精度的影响。这些研究都对时空数据融合模型和融合策略的选择具有指导意义,但仍有尚未完善之处,如大多数研究都缺少了概率统计法这类融合模型;在景观空间异质性变化的分析上,也未分析地形引起的异质性变化;所选数据也较少涉及旨在延续MODIS传统的VIIRS数据,导致现有研究存在一定的不确定性,特别是在地表垂直高程海拔变化显著、气候条件复杂、景观异质性强烈的热带山区,当前的各类时空融合模型的表现及其敏感度尚缺乏研究[15,22-24],而生产高时空分辨率数据集又是实现热带山地环境可见光遥感应用的迫切需求。
为此,本研究以位于我国云贵高原山地区域的纳板河流域为研究区,选取目前常用的权重函数法、概率统计法和多种混合法这3类时空融合方法中具有代表性的4种模型:STARFM、RASTFM、ESTARFM、BSFM。其中,STARFM、ESTARFM是权重函数法中引用率最高的;BSFM是针对植被指数的经典概率统计法;RASTFM是一种新的多种混合法[7,15]。分析影响热带山区高时空分辨率 NDVI数据融合精度的主要因素及其敏感度,研究结果可为时空融合模型在热带山地地区的改进和应用提供参考。

2 研究区概况与数据源

2.1 研究区概况

研究区位于我国云贵高原山地区域的纳板河流域(22°04′N~22°17′N,100°32′E~100°44′E)(图1),核心区域面积26 600 ha,属于热带季雨林气候区,干湿季节分明,雨季降雨量集中,流域地貌以山地为主,地势西北高,东南低,最低海拔为539 m,最高海拔为2304 m,高度落差1765 m,地形起伏强烈,地表异质性强[25]。流域内天然林覆盖率为67.74 %,地表类型包含林地、灌木林地、茶园、橡胶园、水田、旱地、建设用地和水体等,地物分布零散、破碎导致空间异质性强,且由于人类的活动,各海拔范围内地物分布差异明显[26]。由于云、雾覆盖持续时间长(即使在干季,平均雾日数仍超过50 d)[27],对光学遥感成像产生了严重干扰,导致可见光遥感影像中存在大量的云雾覆盖像元,极大地影响了对地的持续有效观测[28]
图1 研究区位置

Fig. 1 Location of study area

2.2 数据源及其预处理

数据源:研究选取Landsat-8、Sentinel-2、MODIS、VIIRS数据及DEM数据,包括了高空间分辨率和高时间分辨率数据(表1)。由于Landsat数据对地观测年限长,可免费获取等优点成为最被广泛用于融合的数据;Sentinel-2则因其更高的时空分辨率(空间分辨率包含10 m、20 m和60 m,双星时间分辨率5 d)和可免费获取的优势逐步成为遥感监测的重要影像数据基础[29];此外,为分析地形对融合结果的影响,还选用了研究区的数字高程模型(Digital Elevation Model, DEM)。因此所选用的主要数据源包括:
(1) Landsat数据:使用的是Landsat的Collection 1 Level-2地表反射率产品,30 m空间分辨率,重访周期16 d;
(2) Sentinel-2数据:运用Sen2Cor软件进行大气校正,选用10 m空间分辨率的Red、近红外Near Infrared(NIR)波段,单颗卫星重访周期10 d;
(3) MODIS数据:500 m空间分辨率,重访周期1 d,使用的是MOD09GA(每日地表反射率产品)、MCD43A4(BRDF校正后的反射率产品)、MOD09A1(8天合成的MODIS地表反射率产品);
(4) VIIRS数据:500 m空间分辨率,重访周期1 d,使用的是VNP09GA (每日地表反射率产品)、VNP43IA4 (BRDF校正后的反射率产品)、VNP09A1(8 d合成的VIIRS地表反射率产品)。
(5) GDEM(Global Digital Elevation Model)数据:30 m空间分辨率,用于提取研究区海拔、坡度、坡向。
表1 研究选用的数据

Tab. 1 Data used in this study

数据 空间
分辨率/m
时间
分辨率/d
波长范围/μm DOY(年份) 数据共享机构
Landsat OLI 30 16 Red:0.630~0.680
NIR:0.845~0.885
318(2016)
016(2017)
064(2017)
096(2017)
025(2020)
073(2020)
美国地质调查局(United States Geological Survey, USGS) (http://glovis.USGS.gov/)
Sentinel-2 10 10 Red:0.650~0.680
NIR:0.785~0.900
326(2016)
020(2017)
040(2017)
070(2017)
欧洲航天局(European Space Agency, ESA, ) (https://scihub.copernicus.eu/)
MODIS 500 1 Red:0.620~0.670
NIR:0.841~0.876
001(2013)~001(2018) 使用MOD09GA、MCD43A4、MOD09A1产品。(http://reverb.echo.NASA.gov/)。
VIIRS 500 1 Red:0.600~0.680
NIR:0.846~0.885
001(2013)~001(2018) 使用VNP09GA、VNP43IA4、VNP09A1产品。(http://reverb.echo.NASA.gov/)
DEM 30 (http://gdem.ersdac.jspacesystems.or.jp/)

注:DOY(Day of Year)为儒略日,表示一年中的第几天,例如2016年DOY 318表示2016年的第318天。

3 研究方法

研究选取目前常用的权重函数法、概率统计法和多种混合法这3类时空融合方法中具有代表性的4模型:STARFM[8]、RASTFM[17]、ESTARFM[9]、BSFM[12](其中STARFM、ESTARFM为权重函数法;BSFM为概率统计法;RASTFM为多种混合法)。 4种融合算法均要求输入数据为无云且质量高的反射率数据,因此对研究区的影像数据进行了质量控制,选用无云的高质量数据作为输入数据。
数据源、景观空间异质性、融合模型自身适用的性能差异是导致高时空分辨率数据融合精度不确定性的3种主要因素[21,30],而在现有的时空融合模型的研究中,异质性变化的评估主要是通过主观评估进行的,这给研究带来了一定的不确定性[23]。为了定量评估景观的时间和空间异质性的变化,本研究分别采用变化检测RCVA(Robust Change Vector Analysis)[31]和空间异质性指数SHI(Spatial Heterogeneity Index)[32]算法来量化景观的时间和空间异质性变化,在空间异质性的变化中,使用海拔、坡度、坡向3个地形因子(Terrain Factors, TFs)来描述山地环境的地形复杂度,评估输入数据、地形复杂度以及融合模型是如何影响各融合模型在热带山地地区的融合精度的。此外,热带山区因其特殊的地理环境时常会出现雾霾等天气,为此本研究还分析了薄云和雾霾等因素对融合精度的影响。
现有研究表明,在植被、水体等变化监测中,与先对各波段反射率进行融合再利用融合结果计算植被指数(Blend then Index, BI)相比,直接融合植被指数(Index then Blend, IB)的精度更高,特别是在 空间异质性大、土地覆被变化强烈的地区[19-20,33-34]。NDVI是监测生态系统动态变化最常用的植被指数,高时空分辨率的NDVI时间序列数据的生产对土地覆盖的动态变化监测、应急抢险、灾害监测等具有重要意义,特别是在地表异质性强烈地区。因此,本研究先计算各高低空间分辨率数据的NDVI值,再对计算的NDVI进行融合,总体路线如图2所示。NDVI的计算如式(1)[35]所示。
NDVI = ρ NIR - ρ RED ρ NIR + ρ RED
式中: ρ RED ρ NIR表示遥感数据在红光和近红外波段的反射率。
图2 技术路线

Fig. 2 Technical Process

3.1 融合精度影响因素

3.1.1 数据源的影响
(1) 输入影像之间的不同时间间隔及其相对变化量:同一种模型中比较输入数据对的不同时间间隔(输入数据为一对的模型,时间间隔为输入数据与预测数据之间的间隔;输入数据为两对的模型,时间间隔为两对输入数据与预测数据之间的间隔的平均值),这一间隔取决于可用的卫星观测数据。
对于2景影像之间的相对变化量,本研究选用Red、NIR这2个反射率波段,运用RCVA来计算。该算法考虑了像元邻域效应,从而减少了太阳高度角、影像几何误差等因素产生的误差,有助于进一步提高变化量检测结果的准确性[31,36],其计算公式为:
RCV = D i 2
D i = X 2 i - X 1 i
D ai j , k = min X 2 i j , k - X 1 i p , q 0 p j - w , j + w q k - w , k + w
D bi j , k = min X 1 i j , k - X 2 i p , q 0 p j - w , j + w q k - w , k + w
D i j , k = { D a i > 0 D a i D a i = 0 0 - D b i
式中: RCV表示最终结果,即变化量RCV; D i表示第 i个波段的变化量; X 1 i X 2 i分别为图像1和 图像2中的第 i个波段; X j , k表示像元;w表示领域的距离,对于中低分辨率影像,常用的窗口为 w=1,即计算2w+1大小的移动窗口[21,36-37]; D a i D b i是中间变量,分别表示 X 2 i - X 1 i X 1 i - X 2 i的每个像素的最小差(式(4)和式(5)),为确保 X 1 X 2的可交换性而又不丢失信息,将 X 1 - X 2 X 2 - X 1的所有负差都设置为0; D i j , k表示像元 X j , k的变化量,为式(4)和式(5)合并的结果,如式(6)。
(2)不同卫星影像数据:比较2个融合数据源的传感器光谱匹配程度,光谱响应函数红光、近红外波段的波长范围、最大最小值的最大偏差。
(3)可见光数据观测角度差异:受地物方向反射特性的影响,不同可见光传感器具有不同的观测地方时、成像视角大小、波段带宽,导致同一地物相同时刻的观测值在不同的可见光观传感器测中存在偏差。因此,本文将分析原始反射率数据和经过观测几何BRDF条件校正的反射率数据对高时空数据融合精度的影响。
3.1.2 地形因子及其空间异质性差异的影响
(1)海拔:基于DEM数据分析和研究区海拔比例,将海拔分为9个范围进行评估:小于600 m、601~800 m、801~1000 m、1001~1200 m、1201~1400 m、1401~1600 m、、1601~1800 m、1801~2000 m、大于2000 m。
(2)坡度:按坡度的大小划分为5个等级:0~10°、10~20°、20~30°、30~40°和大于40°。
(3)坡向:坡向按常用的8坡向划分:东、东南、南、西南、西、西北、北、东北8个方向。
(4)空间异质性:分析空间异质性与融合精度之间的关系,使用张雪红[32]提出的空间异质性指数SHI对空间异质性与3个地形因子之间的关系进行定量分析。式中: f i , j表示像元; SH I ij表示像元 f i , j的空间异质性,被定义为与其8邻域的亮度差绝对值之和,如式(7);SHI表示某一区域(假设影像大小为m×n)的空间异质性,定义为式(8)。利用式(7)和式(8)计算空间异质性指数,分析海拔、坡度和坡向3个地形因子的空间异质性。
SH I i j = a = - 1 1 b = - 1 1 f i , j - f i + a , j + b
SHI = 1 m × n m = 1 m n = 1 n SH I i j
3.1.3 时空融合模型的影响
STARFM、ESTARFM为权重函数法;BSFM为概率统计法; RASTFM为多种混合。比较各个模型的输入数据的频次对融合精度的影响:STARFM、RASTFM为一对输入数据;ESTARFM为两对输入数据; BSFM为2对输入数据及近5年的MOD09A1数据(移动窗口大小都设置为25个像元;RASTFM的RRN(Relative Radiometric Normalization)参数设置为0.10;STARFM、ESTARFM相似像元数设置为25)。
3.1.4 薄云和雾霾等大气条件的影响
除云和雾这种直径较大的大气颗粒物影响融合精度外,薄云和雾霾也会对融合精度产生显著影响,且运用通常的云和云阴影识别算法难以准确识别薄云和雾霾。为此本文分别以仅做了大气校正(如FLAASH等)和经过ATCOR2大气校正,并做去除雾霾影响处理的数据作为不同输入数据,验证薄云和雾霾对融合精度的影响。

3.2 融合精度评价方法

本研究是选取已有Landsat或Sentinel-2观测数据的时刻进行融合,然后运用观测数据对融合结果进行相关性分析,评价指标采用决定系数R2R为相关系数)和均方根误差(Root Mean Square Error,RMSE)[38]。决定系数R2越接近1,融合数据的精度越高,越接近0,融合数据的精度越低;而RMSE越接近0,融合数据的精度越高。

4 结果与分析

研究区内Landsat OLI和Sentinel-2数据的4个融合模型均获取了较好的融合结果(决定系数R2最高均在0.82以上,即相关系数R大于0.9)。以2017年DOY 016的Landsat OLI数据和2017年DOY 020的Sentinel-2数据为例,分别与MOD09GA、VNP09GA、MCD43A4、VNP43IA4进行融合,使用的模型为STARFM、RASTFM、ESTARFM和BSFM模型(BSFM需输入近5年的MOD09A1产品,为保持一致性只使用了MOD09GA、VNP09GA数据),结果表明(表2表3):① 融合精度随输入影像之间的时间间隔及其相对变化量(时间间隔越长,相对变化量往往越大)增加而降低;② 融合精度与输入的参考数据数量有关,模型输入的参考数据量多时,融合精度高;采用经过BRDF校正的反射率数据能够有效提高各个模型的融合精度;③ 融合中输入的高、低空间分辨率数据光谱匹配度越高,融合精度越高(OLI优于Sentinel-2;MODIS优于VIIRS);④ 融合精度与空间异质性呈负相关,融合精度随空间异质性的增加而降低。
表2 OLI融合NDVI与观测NDVI的比较

Tab. 2 Comparison of the predicted NDVI and the observed OLI NDVI

模型 间隔天数/RCV OLI融合MOD09GA OLI融合VNP09GA OLI融合MCD43A4 OLI融合VNP43IA4
R2 RMSE R2 RMSE R2 RMSE R2 RMSE
STARFM 48/0.0155 0.80 0.08 0.78 0.08 0.82 0.07 0.80 0.07
64/0.0184 0.72 0.09 0.72 0.08 0.79 0.07 0.77 0.07
RASTFM 48/0.0155 0.81 0.07 0.80 0.07 0.84 0.06 0.82 0.07
64/0.0184 0.76 0.07 0.75 0.07 0.80 0.07 0.79 0.08
ESTARFM 56/0.0170 0.88 0.06 0.85 0.06 0.90 0.06 0.89 0.06
72/0.0214 0.84 0.07 0.82 0.07 0.87 0.07 0.85 0.06
BSFM - 0.95 0.04 0.93 0.05 - - - -

注:加粗数值表示对应模型的最高融合精度。

表3 Sentinel-2融合NDVI与观测NDVI的比较

Tab. 3 Comparison of the predicted NDVI and the observed Sentinel-2 NDVI

模型 间隔天数
/RCV
Sentinel-2融合MOD09GA Sentinel-2融合VNP09GA Sentinel-2融合MCD43A4 Sentinel-2融合 VNP43IA4
R2 RMSE R2 RMSE R2 RMSE R2 RMSE
STARFM 20/0.0082 0.89 0.09 0.87 0.09 0.90 0.09 0.89 0.09
60/0.0145 0.81 0.09 0.81 0.09 0.88 0.09 0.87 0.09
RASTFM 20/0.0082 0.89 0.09 0.88 0.09 0.91 0.08 0.90 0.08
60/0.0145 0.83 0.09 0.81 0.09 0.88 0.08 0.87 0.09
ESTARFM 40/0.0114 0.90 0.06 0.89 0.07 0.93 0.06 0.93 0.06
55/0.0185 0.86 0.09 0.85 0.09 0.89 0.08 0.88 0.09
BSFM - 0.94 0.07 0.92 0.07 - - - -

注:加粗数值表示对应模型的最高融合精度。

4.1 数据源对融合精度的影响

数据源对时空融合模型的精度影响是所有区域遥感时空融合的共性特征,主要体现在3个方面,即参考数据的时间间隔及其相对变化量、输入数据的光谱匹配精度和观测几何。
(1)输入影像之间的时间间隔及其相对变化量:融合精度随时间间隔及其相对变化量的增加而降低(时间间隔长,往往相对变化量高),见表2表3。在长时间跨度内,植被或太阳天顶角将发生较大变化,前后时刻影像之间的相关性较低,从而导致融合精度下降[39,40]。如图3所示(红色代表集中在此区域的散点密度高),当输入影像之间的时间间隔从48 d(输入影像使用2017年DOY 064,相对变化量0.0155)增加到64 d(输入影像使用2016年DOY 318,相对变化量0.0184)时,使用OLI和MOD09GA数据的STARFM融合精度的R2从0.80降低到0.72。
图3 不同时间间隔STARFM模型的OLI融合精度

Fig. 3 Scatterplots of the STARFM predicted and the observed OLI NDVI in different time intervals

然而因植被生长期的不同,生长期内较短的时间间隔也会造成比非生长期内较长时间间隔更大的变化,如时间间隔60 d(相对变化量0.0145,输入影像使用2016年DOY 326),Sentinel-2和MOD09GA数据的STARFM融合精度的R2为0.81,时间间隔 48 d(相对变化量0.0155,输入影像使用2017年DOY 064,研究区内橡胶林为落叶期),OLI和MOD09GA数据的STARFM融合精度的R2为0.80,见表2表3
(2)不同卫星影像数据:融合输入的高、低空间分辨率数据光谱匹配度越高,融合精度越高。相同条件下融合OLI的精度高于Sentinel-2;融合MODIS精度高于VIIRS。如表1图4所示:① MODIS与OLI:最大偏差0.01 μm (红光波段波长范围最大最小值都相差0.01 μm,近红外波段最小值相差0.004 μm,最大值相差0.009 μm);② VIIRS与OLI:最大偏差0.03 μm;③ MODIS与Sentinel-2:最大偏差0.056 μm;④ VIIRS与Sentinel-2:最大偏差0.061 μm。
图4 不同传感器红光与近红外波段光谱响应函数

Fig. 4 Spectral response functions in red and near infrared bands of different sensors

融合结果中,Landsat OLI数据融合结果中的最高精度(BSFM决定系数R2为0.95,RMSE为0.04)高于Sentinel-2的最高精度(BSFM决定系数R2为0.94,RMSE为0.07);当输入影像数量相同、融合模型相同且数据之间的时间间隔相同时,OLI、 Sentinel-2分别与MODIS融合,4种模型的融合精度都比与VIIRS高(表2表3)。如图5所示,使用STARFM模型,输入影像之间的时间间隔为48 d时,使用OLI和MOD09GA数据的融合精度R2为0.80而OLI和VNP09GA为0.78;使用STARFM模型,输入影像之间的时间间隔为20 d时,Sentinel-2数据的趋势也一致,与MODIS融合精度高于与VIIRS(图6)。
图5 OLI与不同低空间分辨率数据的融合精度(STARFM模型,间隔48 d)

Fig. 5 Scatterplots of the predicted and the observed OLI (used STARFM and the interval of days is 48 d)

图6 Sentinel-2与不同低空间分辨率数据的融合精度(STARFM模型,间隔20 d)

Fig. 6 Scatterplots of the predicted and the observed Sentinel-2 (used STARFM and the interval of days is 20 d)

(3)可见光数据的观测角度:相同融合条件下,当输入的低空间分辨率数据为经过BRDF校正的反射率时,融合精度高于未经BRDF校正的融合结果(表2表3)。如图7所示,融合模型为STARFM,输入影像之间的时间间隔同为48 d时,使用OLI和MOD09GA数据融合时,融合精度R2为0.80(RMSE为0.08),而OLI和MCD43A4为0.82(RMSE为0.07),R2提高了0.02(RMSE降低0.01);而当间隔 64 d时,使用MCD43A4数据的融合精度R2则从0.72(RMSE为0.09)提高到了0.79(RMSE为0.07),R2提高了0.07(RMSE降低0.02)。虽然绝对精度差值小,但是精度差别的一致性明显:经过BRDF校正的数据作为模型的融合输入,精度高于未经BRDF校正的结果;当输入影像之间的时间间隔较长时,BRDF校正后的反射数据可以有效地提高融合精度。
图7 OLI与不同低空间分辨率数据的融合精度(STARFM模型)

Fig. 7 Scatterplots of the predicted and the observed OLI NDVI(used STARFM)

4.2 地形因子及其空间异质性差异对融合精度的影响

在热带山区遥感时空融合还受地形的影响,地形对遥感影像的影响与其空间分辨率有关,地形对高分辨率影像的影响大于对低分辨率影像的影响[32, 41]。因此,本研究使用Sentinel-2和MODIS数据融合得到的空间分辨率为10 m的2017年DOY 020融合结果进行地形影响分析(Sentinel-2和VIIRS数据融合的趋势保持不变),如图8、9、10和表4所示。不同地形导致空间异质性差异,而空间异质性影响融合精度;融合精度与空间异质性呈负相关,融合精度随空间异质性的增加而降低。
图8 不同海拔上的空间异质性及其融合精度

Fig. 8 SHI and fusion accuracy of different elevation

图9 不同坡度上的空间异质性及其融合精度

Fig. 9 SHI and fusion accuracy of different slope

图10 不同坡向上的空间异质性及其融合精度

Fig. 10 SHI and fusion accuracy of different slope aspect

表4 融合精度与地形因子SHI的相关性

Tab. 4 Correlation between fusion accuracy and SHI of terrain factors

地形因子 模型
STARFM RASTFM ESTARFM BSFM
MOD09GA MCD43A4 MOD09GA MCD43A4 MOD09GA MCD43A4 MOD09GA
海拔 -0.82 -0.76 -0.78 -0.69 -0.88 -0.74 -0.89
坡度 -0.86 -0.84 -0.87 -0.86 -0.85 -0.83 -0.89
坡向 -0.64 -0.53 -0.60 -0.54 -0.61 -0.51 -0.55
(1)海拔。如图8(a)、(b)所示,4种模型的融合精度、空间异质性都随海拔的变化而变化;因地理分异、人类活动的影响,不同海拔的空间异质性发生变化(如研究区内低海拔区域人类活动强烈,有许多复杂的景观导致了低海拔地区的强烈的空间异质性,例如农业活动;在高海拔地区,人类活动的强度较低,而且这些地区更为均匀),空间异质性较高的区域4种模型的融合精度均较低,在海拔上融合精度与空间异质性呈强负相关(表4:如输入MOD09GA数据的STARFM相关性-0.82,RASTFM相关性-0.78,ESTARFM相关性-0.88,BSFM相关性-0.89),随着空间异质性的增加,融合精度降低;输入BRDF校正后的反射率数据MCD43A4后,各海拔上融合精度都相应增加,特别是对于只输入一对数据对的时空融合模型STARFM、RASTFM,融合精度与空间异质性负相关性减少,地形对RASTFM的影响较其他模型低(如STARFM相关 性降低至-0.76,RASTFM相关性降低至-0.69, ESTARFM相关性降低至-0.74)。
(2)坡度。如图9(a)、(b)的结果所示,SHI随坡度的增加而增加,4种模型的融合精度都随坡度的增加而降低;在坡度上融合精度与空间异质性也呈负相关(表4:如输入MOD09GA数据的STARFM相关性-0.86,RASTFM相关性-0.87,ESTARFM相关性-0.85,BSFM相关性-0.89)。缓坡具有较低的空间异质性,融合精度较高;而陡坡具有较高的空间异质性,融合精度较低。以输入MOD09GA数据的STARFM的结果为例,随着坡度增大到40°以上,融合精度从0.79下降到0.45。尽管BRDF校正后的反射数据提高了一些融合精度,但坡度对融合精度的影响仍然很大(如STARFM相关性只降低至 -0.84,RASTFM相关性只降低至-0.86,ESTARFM相关性只降低至-0.83)。
(3)坡向。不同坡向的融合精度变化如图10(a)、(b)中的风玫瑰图所示;圆周代表坡向,半径表示每个坡向上的融合精度R2。从圆心到半径顶部的R2为0.5到0.95。结果表明,4种模型的融合精度和空间异质性在坡向上没有明显的变化趋势,相关性不高,坡向对融合精度的影响较小(表4:如输入MOD09GA数据的STARFM相关性-0.64,RASTFM相关性-0.60,ESTARFM相关性-0.61,BSFM相关性-0.55);但输入BRDF校正后的反射率数据MCD43A4后,各坡向上融合精度都相应增加,融合精度与空间异质性负相关性减少(如STARFM相 关性降低至-0.53,RASTFM相关性降低至-0.54,ESTARFM相关性降低至-0.51)。

4.3 模型与融合精度

在相同的实验条件下(输入卫星类别相同,观测几何相同),4个融合模型中BSFM的融合精度最高,其余依次为ESTARFM、RASTFM、STARFM。BSFM为2对输入数据及近5年的MOD09A1数据;ESTARFM为2对输入数据;RASTFM、STARFM为一对输入数据。输入的高质量影像越多,结合的辅助信息越多,融合模型的融合精度往往越高。图11显示了所选数据对中时间间隔较长时(STARFM、RASTFM 60 d; ESTARFM 55 d)4种模型分别融合MOD09GA反射率数据和MCD43A4(经BRDF校正的反射率数据)的Sentinel-2融合结果,图12为对应的融合精度,融合影像在整体视觉色调上与观测影像都具有很高的相似性。输入BRDF校正数据的融合结果在NDVI变化较大区域和地类边界上更接近于观测影像,可以有效地提高融合精度,特别是对于只输入一对数据对的融合模型,如STARFM、RASTFM。
图11 观测影像与不同融合模型融合影像比较

Fig. 11 Comparison of the predicted NDVI and the observed NDVI

图12 不同融合模型Sentinel-2融合精度

Fig. 12 Scatterplots of predicted and the observed Sentinel-2 in different model

STARFM是经典的时空融合模型,能较好地预测植被物候变化;ESTARFM运用前后时相的影像来预测中间时刻的影像,更进一步提升了融合精度,但这个条件也限制了其应用的广泛性;BSFM加入了缺失影像近5年的MOD09A1数据作为先验知识,因此在地类不经常性地发生异常突变时,融合精度最高,但计算时间也较长;RASTFM方法将不同时相的影像变化分为非形变(植被生长的季节性变化)与形变(地物类型突变)两大类,引入非局部线性回归方法提高相似像元的相似性及超分辨率结果的准确性,相比之前的多种融合方法,较大程度地减小了地类形变对融合精度的影响。

4.4 薄云和雾霾等大气条件对融合精度的影响

图13图14所示,以2020年DOY 073的Landsat OLI数据作为输入数据(局部含有薄云和雾霾的影像),评价2020年DOY 025融合结果,使用RASTFM模型和MCD43A4数据,结果表明:运用FLAASH大气校正时,尽管输入数据的时间间隔相对较短(48 d),融合精度也较低(R2为0.58);运用ATCOR2大气校正(较大程度去除薄云和雾霾的影响)后,融合精度R2从0.58增加到0.78;因此,在有薄云和雾霾的大气条件下对融合精度有显著影响。
图13 Landsat影像真彩色显示

Fig. 13 Landsat data true color display image

图14 RASTFM NDVI融合精度

Fig. 14 Scatterplots of the predicted and the observed NDVI used RASTFM

5 结论与讨论

针对现有的研究对各类时空融合模型在热带山地地区中的表现及其敏感度分析的缺失,本文选取目前常用的3类时空融合方法中具有代表性的 4个模型:STARFM、RASTFM、ESTARFM、BSFM,主要基于融合模型输入数据源选择、研究区(纳板河流域)的地形及景观空间异质性、融合模型本身、以及薄云和雾霾等大气条件,定量评估了时空融合模型在热带山区的NDVI数据融合精度及其影响因素,主要结论如下:
(1) 融合精度随输入数据的时间间隔及其相对变化量增加而降低,随可用数据数量增加而增加;融合中输入的高、低空间分辨率数据光谱匹配度越高,融合精度越高(OLI优于Sentinel-2;MODIS优于VIIRS);采用经过BRDF校正的反射率数据能够有效提高各个模型的融合精度,这些影响都是数据本身所固有的,所以是所有区域遥感时空数据融合的共性特征。
(2) 在热带山区NDVI数据时空融合还受海拔、坡度的影响,这通常是由于空间异质性导致的。融合精度与空间异质性呈负相关,融合精度随空间异质性的增加而降低;本研究中海拔与空间异质性呈强负相关;在坡度上融合精度随着坡度的增大而减小;融合精度受坡向的影响较小;地形对RASTFM的影响较其他模型低。
(3) 输入的高质量影像越多,结合的辅助信息越多,融合模型的融合精度就越高。4种融合模型中,BSFM的融合精度最高,其次是ESTARFM、RASTFM、STARFM。
(4) 除云和雾这种直径较大的大气颗粒物影响融合精度外,薄云和雾霾也会对融合精度产生显著负面影响。受低纬热带地区地理环境的影响,即使在干季内,数量足够的高质量高分辨率观测数据往往难以获得,这是实现低纬热带山地地区高质量遥感数据时空融合面临的主要挑战。此外,通过对热带山区薄云和雾霾的准确识别可以更好地利用有限的有效观测数据,对时空融合方法在此地区应用具有重要意义。
尽管MODIS数据与高分辨率数据的光谱匹配程度优于VIIRS,但差异并不明显,因此,使用VIIRS作为融合数据源,融合结果仍然是可靠的。同时VIIRS与MODIS的成像地方时不同,同时在轨的情况下增加了单日内高时间分辨率数据的数据量,这对于提高输入数据的数量和质量,提高时空数据融合精度具有重要价值。

感谢朱孝林博士提供的STARFM、ESTARFM开源代码,黄波教授团队提供的RASTFM融合程序。

[1]
Gu J, Li X, Huang C L, et al. A simplified data assimilation method for reconstructing time-series MODIS NDVI data[J]. Advances in Space Research, 2009, 44(4):501-509. DOI: 10.1016/j.asr.2009.05.009

DOI

[2]
Chen X H, Yang D D, Chen J, et al. An improved automated land cover updating approach by integrating with downscaled NDVI time series data[J]. Remote Sensing Letters, 2015, 6(1):29-38. DOI: 10.1080/2150704X.2014.998793

DOI

[3]
Wu T S, Fu H P, Feng F, et al. A new approach to predict normalized difference vegetation index using time-delay neural network in the arid and semi-arid grassland[J]. International Journal of Remote Sensing, 2019, 40(23):9050-9063. DOI: 10.1080/01431161.2019.1624870

DOI

[4]
Ghamisi P, Rasti B, Yokoya N, et al. Multisource and multitemporal data fusion in remote sensing A comprehensive review of the state of the art[J]. IEEE Geoscience and Remote Sensing Magazine, 2019, 7(1):6-39. DOI: 10.1109/MGRS.2018.2890023

DOI

[5]
张立福, 彭明媛, 孙雪剑, 等. 遥感数据融合研究进展与文献定量分析(1992—2018)[J]. 遥感学报, 2019, 23(4):603-619.

[ Zhang L F, Peng M Y, Sun X J, et al. Progress and bibliometric analysis of remote sensing data fusion methods (1992—2018)[J]. Journal of Remote Sensing, 2019, 23(4):603-619. ] DOI: 10.11834/jrs.20199073

DOI

[6]
李树涛, 李聪妤, 康旭东. 多源遥感图像融合发展现状与未来展望[J]. 遥感学报, 2021, 25(1):148-166.

[ Li S T, Li C Y, Kang X D. Development status and future prospects of multi-source remote sensing image fusion[J]. Journal of Remote Sensing, 2021, 25(1):148-166. ] DOI: 10.11834/jrs.20210259

DOI

[7]
Zhu X, Cai F, Tian J, et al. Spatiotemporal Fusion of Multisource Remote Sensing Data: Literature Survey, Taxonomy, Principles, Applications, and Future Directions[J]. Remote Sensing, 2018, 10(4):527. DOI: 10.3390/rs10040527

DOI

[8]
Gao F, Masek J, Schwaller M, et al. On the blending of the Landsat and MODIS surface reflectance: Predicting daily Landsat surface reflectance[J]. IEEE Transactions on Geoscience and Remote Sensing, 2006, 44(8):2207-2218. DOI: 10.1109/TGRS.2006.872081

DOI

[9]
Zhu X L, Chen J, Gao F, et al. An enhanced spatial and temporal adaptive reflectance fusion model for complex heterogeneous regions[J]. Remote Sensing of Environment, 2010, 114(11):2610-2623. DOI: 10.1016/j.rse.2010.05.032

DOI

[10]
Yokoya N, Yairi T, Iwasaki A. Coupled nonnegative matrix factorization unmixing for hyperspectral and multispectral data fusion[J]. IEEE Transactions on Geoscience and Remote Sensing, 2012, 50(2):528-537. DOI: 10.1109/TGRS.2011.2161320

DOI

[11]
Zhang W, Li A N, Jin H A, et al. An enhanced spatial and temporal data fusion model for fusing Landsat and MODIS surface reflectance to generate high temporal Landsat-Like data[J]. Remote Sensing, 2013, 5(10):5346-5368. DOI: 10.1109/TGRS.2011.2161320

DOI

[12]
Liao L, Song J, Wang J, et al. Bayesian method for building frequent Landsat-like NDVI datasets by integrating MODIS and Landsat NDVI[J]. Remote Sensing, 2016, 8(6):452. DOI: 10.3390/rs8060452

DOI

[13]
Song H, Liu Q, Wang G, et al. Spatiotemporal satellite image fusion uing deep convolutional neural networks[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(3SI):821-829. DOI: 10.1109/JSTARS.2018.2797894

DOI

[14]
Tan Z, Yue P, Di L, et al. Deriving high spatiotemporal remote sensing images using deep convolutional network[J]. Remote Sensing, 2018, 10(7):1066. DOI: 10.3390/rs10071066

DOI

[15]
黄波. 时空遥感影像融合研究的进展与趋势[J]. 四川师范大学学报(自然科学版), 2020, 43(4):427-434,424.

[ Huang B. Research Progress and Trend of Spatial and Temporal Remote Sensing Image Fusion[J]. Journal of Sichuan Normal University (Natural Science), 2020, 43(4):427-434,424. ] DOI: 10.3969/j.issn.1001-8395.2020.04.001

DOI

[16]
Zhu X L, Helmer E H, Gao F, et al. A flexible spatiotemporal method for fusing satellite images with different resolutions[J]. Remote Sensing of Environment, 2016, 172:165-177. DOI: 10.1016/j.rse.2015.11.016

DOI

[17]
Zhao Y Q, Huang B, Song H H. A robust adaptive spatial and temporal image fusion model for complex land surface changes[J]. Remote Sensing of Environment, 2018, 208:42-62. DOI: 10.1016/j.rse.2018.02.009

DOI

[18]
刘建波, 马勇, 武易天, 等. 遥感高时空融合方法的研究进展及应用现状[J]. 遥感学报, 2016, 20(5):1038-1049.

[ Liu J B, Ma Y, Wu Y T, et al. Review of methods and applications of high spatiotemporal fusion of remote sensing data[J]. Journal of Remote Sensing, 2016, 20(5):1038-1049. ] DOI: 10.11834/jrs.20166218

DOI

[19]
Jarihani A A, Mcvicar T R, Van Niel T G, et al. Blending Landsat and MODIS Data to Generate Multispectral Indices: A Comparison of "Index-then-Blend" and "Blend-then-Index" Approaches[J]. Remote Sensing, 2014, 6(10):9213-9238. DOI: 10.3390/rs6109213

DOI

[20]
Chen X H, Liu M, Zhu X L, et al. "Blend-then-Index" or "Index-then-Blend": A Theoretical Analysis for Generating High-resolution NDVI Time Series by STARFM[J]. Photogrammetric Engineering and Remote Sensing, 2018, 84(2):66-74. DOI: 10.14358/PERS.84.2.65

DOI

[21]
Liu M L, Ke Y H, Yin Q, et al. Comparison of five spatio-temporal satellite image fusion models over Landscapes with vrious spatial heterogeneity and temporal variation[J]. Remote Sensing, 2019, 11(22):2612. DOI: 10.3390/rs11222612

DOI

[22]
Zhou J, Chen J, Chen X, et al. Sensitivity of six typical spatiotemporal fusion methods to different influential factors: A comparative study for a normalized difference vegetation index time series reconstruction[J]. Remote Sensing of Environment, 2021, 252:112130. DOI: 10.1016/j.rse.2020.112130

DOI

[23]
Wang Q, Atkinson P M. Spatio-temporal fusion for daily Sentinel-2 images[J]. Remote Sensing of Environment, 2018, 204:31-42. DOI: 10.1016/j.rse.2017.10.046

DOI

[24]
平博, 孟云闪, 苏奋振. 面向GF-1 WFV数据和MODIS数据的时空融合算法对比分析[J]. 地球信息科学学报, 2019, 21(2):157-167.

DOI

[ Ping B, Meng Y S, Su F Z. Comparisons of spatio-temporal fusion methods for GF-1 WFV and MODIS data[J]. Journal of Geo-Information Science, 2019, 21(2):157-167. ] DOI: 10.12082/dqxxkx.2019.180314

DOI

[25]
纳板河流域国家级自然保护区管理局. 保护区概况[EB/OL]. https://nbhbhq.xsbn.gov.cn.html,2016-09-26.

[National Nature Reserve Administration of Naban River Watershed.2016. Overview of the nature reserve[EB/OL]. https://nbhbhq.xsbn.gov.cn.html,2016-09-26.

[26]
Yang X Q, Blagodatsky S, Lippe M, et al. Land-use change impact on time-averaged carbon balances: Rubber expansion and reforestation in a biosphere reserve, South-West China[J]. Forest Ecology and Management, 2016, 372:149-163. DOI: 10.1016/j.foreco.2016.04.009

DOI

[27]
宫世贤, 凌升海. 西双版纳雾在减少[J]. 气象, 1996(11):11-15.

[ Gong S X, Ling S H. Fog Decreasing in Xishuangbanna Region[J]. Meteorological Monthly, 1996(11):11-15. ]

[28]
Gao S P, Liu X L, Bo Y C, et al. Rubber identification based on blended high spatio-temporal resolution optical remote sensing data: A case study in Xishuangbanna[J]. Remote Sensing, 2019, 11(5):496. DOI: 10.3390/rs11050496

DOI

[29]
Jia Y F, Huang Y, Yu B L, et al. Downscaling land surface temperature data by fusing Suomi NPP-VIIRS and landsat-8 TIR data[J]. Remote Sensing Letters, 2017, 8(12):1132-1141.DOI: 10.1080/2150704X.2017.1362125

DOI

[30]
Quan J, Zhan W, Ma T, et al. An integrated model for generating hourly Landsat-like land surface temperatures over heterogeneous landscapes[J]. Remote Sensing of Environment, 2018, 206:403-423. DOI: 10.1016/j.rse.2017.12.003

DOI

[31]
Thonfeld F, Feilhauer H, Braun M, et al. Robust Change Vector Analysis (RCVA) for multi-sensor very high resolution optical satellite data[J]. International Journal of Applied Earth Observation and Geoinformation, 2016, 50:131-140. DOI: 10.1016/j.jag.2016.03.009

DOI

[32]
张雪红. 基于高分辨率遥感的桉树林空间异质性与尺度效应研究[D]. 南京:南京大学, 2012.

[ Zhang, X H. Study on spatial heterogeneity and scale effect of eucalyptus forest based on high resolution remote sensing[D]. Nanjing: Nanjing University, 2012. ]

[33]
Bei X Y, Yao Y J, Zhang L L, et al. Estimation of daily terrestrial latent heat flux with high spatial resolution from MODIS and Chinese GF-1 Data[J]. Sensors, 2020, 20(10):2811. DOI: 10.3390/s20102811

DOI

[34]
Huang C, Chen Y, Zhang S Q, et al. Surface water mapping from Suomi NPP-VIIRS imagery at 30 m resolution via blending with landsat data[J]. Remote Sensing, 2016, 8(8):631. DOI: 10.3390/rs8080631

DOI

[35]
Tucker C J. Red and photographic infrared linear combinations for monitoring vegetation[J]. Remote Sensing of Environment, 1979, 8(2):127-150.

DOI

[36]
Singh S, Sood V, Taloor A K, et al. Qualitative and quantitative analysis of topographically derived CVA algorithms using MODIS and Landsat-8 data over Western Himalayas, India[J]. Quaternary International, 2021, 575:85-95. DOI: 10.1016/j.quaint.2020.04.048

DOI

[37]
Liu B Y, Chen J, Chen J G, et al. Land Cover Change Detection Using Multiple Shape Parameters of Spectral and NDVI Curves[J]. Remote Sensing, 2018, 10(8):1251.

DOI

[38]
Wei Q, Bioucas-Dias J, Dobigeon N, et al. Hyperspectral and multispectral image fusion based on a sparse representation[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(7):3658-3668. DOI: 10.1109/TGRS.2014.2381272

DOI

[39]
Liu X L, Bo Y C, Zhang J, et al. Classification of C3 and C4 vegetation types using MODIS and ETM plus blended high spatio-temporal resolution data[J]. Remote Sensing, 2015, 7(11):15244-15268. DOI: 10.3390/rs71115244

DOI

[40]
Liu M, Yang W, Zhu X L, et al. An Improved Flexible Spatiotemporal Data Fusion (IFSDAF) method for producing high spatiotemporal resolution normalized difference vegetation index time series[J]. Remote Sensing of Environment, 2019, 227:74-89. DOI: 10.1016/j.rse.2019.03.012

DOI

[41]
Deng Y X, Chen X F, Chuvieco E, et al. Multi-scale linkages between topographic attributes and vegetation indices in a mountainous landscape[J]. Remote Sensing of Environment, 2007, 111(1):122-134. DOI: 10.1016/j.rse.2007.03.016

DOI

Outlines

/