Identifying Soybean Cropped Area with Sentinel-2 Data and Multi-Layer Neural Network

  • TIAN Fuyou , 1, 2 ,
  • WU Bingfang , 1, 2, * ,
  • ZENG Hongwei 1 ,
  • HE Zhaoxin 1, 2 ,
  • ZHANG Miao 1 ,
  • José Bofana 1, 2
Expand
  • 1. State Key Laboratory of Remote Sensing Science , Institute of Remote Sensing and Digital Earth, Chinese Academy of Science, Beijing 100101, China
  • 2. College of Resources and Environment, University of Chinese Academy of Sciences, Beijing 100049, China
*Corresponding author: WU Bingfang, E-mail:

Received date: 2018-08-30

  Request revised date: 2018-12-27

  Online published: 2019-06-15

Supported by

Science and Technology Service Network Initiative, No.KFJ-STS-ZDTP-009

the National Natural Science Foundation of China, No.41561144013, 41861144019, 41701496

Copyright

《地球信息科学学报》编辑部 所有

Abstract

As the most important oil crop in the world, soybean is a large-scale agricultural product that China imports. The accurate identification of its planting area is the basis for decision-making and planting structure adjustment, and is of great significance to national food security. Sentinel-2 was used as a data source and multi-layer neural network was employed to map soybean cropped area. Besides, visible and infrared bands, three red-edge bands were also selected after radiation and atmospheric correction using the Sentinel-2 Toolbox. According to our test, 8-hidden-layer conducted using Scikit-learn package in Python2.7 was the optimal structure for identifying soybean and other crops. Simple linear iterative clustering (SLIC), the state-of-art segmentation algorithm, was performed to segment the remote sensed image. This method combined five-dimensional color and the image plane space to efficiently generate compact and nearly uniform super pixels. To remove the “salt and pepper effect”, the pixel-based result was integrated with the object output from the SLIC. If the pixel as soybean in an object accounted for less than 50%, this object was eliminated in the fusion map. The results showed that the overall accuracy of multi-layer neural network was 93.95%, which was highest and followed by the support vector machine, decision tree, and random forest. Then, the neural network classification was selected as the best result to integrate with SLIC object-oriented segmentation, and the results ignored the small differences of the same land and distinguish the crop differences of different blocks compared with the segmentation in eCognition software. Sentinel-2 data is an appropriate data source for large-scale soybean planting mapping. According to feature importance derived from the random forest classifier, near-infrared band is the most critical feature for classification, followed by third red edge band (Band 7), fourth red edge 4 band (Band 8), red band, and second red edge band (Band 6). The reflectance values of soybeans and other crops in the second red edge band were different, indicating a huge potential in crop type identifying. In the future, the red edge band can be introduced more into crop type even landscape classification. The multi-layer neural network method performs well in the image classification task and had similar or better overall accuracy value compared with other outstanding machine learning classifier including SVM, decision tree, and random forest. Combined with the image segmentation algorithm, such as SLIC, multi-layer neural network can map soybean cropped area with an accuracy high up to 95.51%, which can serve for soybean planting area monitoring in a large area.

Cite this article

TIAN Fuyou , WU Bingfang , ZENG Hongwei , HE Zhaoxin , ZHANG Miao , José Bofana . Identifying Soybean Cropped Area with Sentinel-2 Data and Multi-Layer Neural Network[J]. Journal of Geo-information Science, 2019 , 21(6) : 918 -927 . DOI: 10.12082/dqxxkx.2019.180424

1 引言

大豆作为全球最重要的油料作物,是我国进口的大宗农产品,仅2017年中国进口的大豆就达到了9554万t[1],因此对其种植区的精准识别是决策制定、种植结构调整的基础,对国家粮食安全有重要意义[2,3]。传统估算作物种植面积方法包括进行野外抽样调查或大面积样方观测,这种方法能进行精细的农业调查,如灌溉、施肥、农作物面积、田间管理水平等[4],但是不仅费时费力[5],而且不能获取种植区的空间分布。
遥感技术具有宏观、动态、快速、实时等特点,具有调查成本低的优势,已广泛应用于大宗粮油作物长势监测与产量估测,成为农作物分布信息获取不可或缺的手段[6]。利用作物的物候信息以及多时相的遥感数据是提高农作物分类精度的主要手段之一[7],如Zhang等[2]利用MODIS时间序列数据以及物候信息,采用支持向量机方法对中国东北三省的玉米进行了提取;Zhong等[3]从多年的landsat影像中提取美国大豆和玉米的物候信息,最后利用随机森林方法区分大豆和玉米。但是,在作物生育期接近的地区,多时相信息并不能有效区分作物类型[8],例如在黑龙江省,玉米与大豆的生育期接近,光谱信息相似,利用遥感数据的常规波段区分难度较大。因此,引入对不同作物敏感的波段成为提高分类精度的一种方法。如王利民等分析了Landsat-8 OLI传感器的短波红外波段对玉米大豆的种植面积提取精度影响,发现在单时相中引入短波红外波段后精度有显著提高。红边是植被的反射率在近红外线波段接近与红光交界处快速变化的区域,其形成是由植被在红光和近红外波段的反射特性决定的,一方面植被叶绿素在红光波段具有强烈的吸收,另一方面与叶片内部在近红外波段光产生多次散射,造成反射率的急剧上升。因此,这种差异可以用来区分作物类型。刘佳等利用5 m分辨率的RapidEye卫星影像红边波段对玉米、大豆等农作物进行提取,发现引入红边波段增加了地物之间的可分性,提高了农作物面积整体的精度[6]
RapidEye等商业化卫星虽然具有红边波段,但是卫星数据尚未公开,进行大面积的农作物识别需购买大量数据,成本高昂。Landsat数据已经公开,但是由于其回访周期较长,可获取的数据有限。因此这两种数据源在大尺度的农作物分类中可应用不高,欧空局2015发射的Sentinel-2A卫星与2017年3月发射的Sentinel-2B卫星组成的Sentinel-2星座,其数据10 m分辨率具有3个红边波段,回访周期短,且数据对公众开放,因此本文探索利用该数据进行大豆面积提取。
随着遥感技术的发展与遥感数据的积累,信息的自动提取势在必行。随机森林[9,10]、支持向量机[11]等典型机器学习方法被广泛应用在遥感分类中,取得较好效果[9,10,11]。三层神经网络就可以拟合任何形式的有界连续函数[12],其在遥感分类问题与回归问题中广泛应用[13],但是层数过少限制了神经网络的非线性表达能力,卷积神经网络证明随着层数的增加,其信息提取能力也将大大提高,Relu激励函数替代sigmoid函数更是解决了多层神经网络训练过程中梯度消失的问题[14],多层神经网络的训练更加容易。本文利用具有红边波段的Sentine-2卫星数据,采用多层神经网络方法对大豆种植区进行提取,并与随机森林、决策树、支持向量机等机器学习方法的分类结果进行对比,探索基于Sentinel-2数据的大豆面积自动提取方法。

2 研究区概况、数据源与研究方法

2.1 研究区概况

本文研究区为位于黑龙江省中北部的北安市,其位置如图1所示。北安市为隶属于黑河市的县级市,地处47°33′N-48°35′N, 126°14′E-127°55′E,总面积7149 km2,总人口为42.5万人(2017年)。地处黑河市南部、小兴安岭南麓,为松嫩平原的边缘地带,研究区东部为小兴安岭山脉的延续,属于山区;西部为丘陵平原区,是松嫩平原过渡的中间地带。该区地处寒温带,属于季风控制下的寒温带压湿润气候,常年平均气温0.8 ℃,极端最低气温-41.0 ℃,极端最高气温36.5 ℃。无霜期90~130 d,年平均日照2600 h,年降水量500 mm左右。农业是该区的重要支柱产业之一,主要盛产大豆、玉米、水稻、高粱、马铃薯等。
Fig. 1 The location of study area and sampling point

图1 研究区位置与样点分布

2.2 数据源

Sentinel-2是欧空局开发的地球观测任务,是哥白尼计划的一部分,进行地面观测,以支持森林监测,土地覆盖变化监测和自然灾害管理等服务。它是由两颗相同的卫星Sentinel-2A和Sentinel-2B组成的卫星星座,两颗卫星分别于2015年6月和2017年3月发射,分别携带一个多光谱成像仪,传感器设置13个波段,空间分辨率10~60 m,单颗卫星重访周期10 d,星座重访周期5天,本文采用空间分辨率为10 m的3个可见光、3个红边以及2个近红外波段进行实验,其详细波谱信息如表1所示。
Tab. 1 The detailed information of Sentinel-2 sensor

表1 Sentinel-2传感器信息

波段 Sentinel-2A Sentinel-2B
中心波长/nm 波宽/nm 中心波长/nm 波宽/nm 分辨率/m
B2-蓝光 496.6 98 492.1 98 10
B3-绿光 560.0 45 559 46 10
B4-红光 664.5 38 665 39 10
B5-红边1 703.9 19 703.8 20 20
B6-红边2 740.2 18 739.1 18 20
B7-红边3 782.5 28 779.7 28 20
B8-近红外 835.1 145 833 133 10
B8A-窄边近红外 864.8 33 864 32 20
为保证3个红边波段以及窄边近红外波段与3个可见光波段空间分辨率的一致性,在进行波段合成时,将各个波段重采样到10 m分辨率下进行大豆种植区的提取。选择2017年8月22日的覆盖研究区的sentinel-2影像数据作为原始数据,并利用欧空局提供的 Sentinel-2 Toolbox软件对影像进行辐射校正和大气校正。
利用众源数据采集软件GVG[15]在研究区内采集样点545个,其中大豆样点303个,其他作物样点242个。利用DJ无人机采集样方3处,其位置如图1所示,进行人工矢量化后同样做为训练样本(图2)。根据研究区内地物特征,共划分建筑物和裸地、大豆、其他作物、植被、水体5类,合计训练样本45 282个。
Fig. 2 Samples extracted from unmanned aerial vehicle

图2 无人机训练样本提取

2.3 分类方法

本研究利用Sentinel-2影像与地面调查数据作为输入,采用分层采样的方式,选取等量的训练样本和验证样本,避免训练过程中的样本不平衡问题;利用多层神经网络方法对大豆的种植面积进行提取,同时利用SLIC(Simple Linear Iterative Clustering)[16]超像元分割方法对影像进行面向对象的分割;最后将基于像元的分类结果与面向对象分割结果聚合,得到面向对象的分类结果。详细流程图如图3所示。
Fig. 3 Technical flowchart of this research

图3 北安市大豆分类技术路线

2.3.1 多层神经网络
人工神经网络是从生物神经组成结构中得到启发的一种机器学习方法,具有很强的非线性拟合能力,Hecht-Nielsen曾证明三层神经网络就可以拟合任何形式的有界连续函数[12]。神经元是神经网络的基本单元,其结构如图4所示。
Fig. 4 The neuron model

图4 神经元模型

每个神经元的计算方法如下:
y = f j = 0 d w j x j (1)
式中: x 1 , x 2 , , x d 为神经元的输入; w 1 , w 2 , , w d 为每个神经元对应的权重;w0x0为偏置项,x0=1; f 为神经元的激励函数。一个神经元的计算过程为,首先计算神经元输入与对应权重的加权和,然后输入激励函数计算神经元的输出。激励函数通常取Sigmoid函数或ReLu函数,其表达式与函数图像如图5所示,Sigmoid函数把 - , + 上的值映射到了[-1,1]之间。这个映射可以增加非线性性,但是当输入值足够大或者足够小时,函数输出值基本不变,函数的导数值也基本上为0,导致梯度下降效果不佳。因此Sigmoid函数容易出现饱和现象,导致梯度消失。近些年,ReLU激励函数解决了Sigmoid激励函数的梯度消失问题,使得多层神经网络的训练的精度更高。
Fig. 5 Equations and graphs of sigmoid and ReLU activation function

图5 Sigmoid与ReLU激励函数

神经网络的网络结构如图6所示,其包含一个输入层、一个输出层和若干个隐含层。随着后项传播算法的提出以及计算机计算速度的提升,使得多层神经网络的计算成为可能,卷积神经网络在物体识别、分类中更是大取得长足的进展。以往用于遥感分类的神经网络隐含层数多只包含一个,因此其模型的模拟能力有限,本文构建了一个8层神经网络参与分类任务。以上研究方法在Scikit-learn (http://scikit-learn.org/stable/index.html#)包中实现,采用ReLU作为激励函数,采用early stop方法预防网络过拟合,具体参数如表2所示。
Tab. 2 Detailed parameters used in Multi-layer neural network and SLIC segmentation

表2 神经网络和SLIC分割方法具体参数

方法 具体参数
神经网络 alpha=1e-5, hidden_layer_sizes=(20,20,20,20,20,20,20,20), max_iter=100 000, early_stopping=True
SLIC分割 compactness=10, sigma=0
Fig. 6 Structure of multi-layer neural network

图6 多层神经网络结构

在Ski-learn机器学习包的支持下,利用train_test_split()函数对各个类别进行分层抽样,设置train_size、test_size参数为600与300,各类别选取600个样点进行模型训练,300个样本点进行精度验证。生产者精度、用户精度、总体精度以及F1-Score 共4个指标用于模型的精度评价。其中,F1-Score为用户精度与生产者精度的调和平均数,兼顾了用户精度与生产者精度,计算方法如下:
F 1 - Score = UA × PA UA + PA × 2 (2)
式中:UA为用户精度、PA为生产者精度。根据精度评价指标,从4种分类方法中选择最优的分类器。
2.3.2 SLIC超像元分割及结果聚合
SLIC(Simple Linear Iterative Clustering),即简单的线性迭代聚类,是一种更快速、高效的超像元分割方法,其基本原理是将图像从RGB空间转换到CIELAB颜色空间,然后运用K均值聚类方法进行超像元分割。首先将每个像元的(l,a,b)颜色值 和(x,y)坐标组成一个5维向量V[l, a, b, x, y],然后计算两个像元之间的相似度,算法首先随机生成K个种子,然后在种子的附近搜索较为相似的像元点,直到周围的每个像元点完成。然后计算每个 类别的聚类中心,重复以上过程,从中心点出发搜索周围相似程度高的像元,直到整幅图像的所有像元点完成分类。SLIC算法能生成紧凑、近似均匀的超像元,比较符合人们期望的分割效果。利用Scikit-image扩展包,在Python环境下实现,参数如表2所示。

3 结果及分析

3.1 多层神经网络分类结果

在Scikit-learn库的支持下实现了一个包含8隐含层的10层神经网络,具体参数如表2所示,每类使用600个样本点进行训练、300个样本点进行验证。分类结果如图7(a)所示,可以看出,大豆多分布与北安县左侧的松嫩平原一侧,山区耕地面积较少。多层神经网络分类生产者精度约为96%,其他作物的生产者精度约为92%;其分类混淆矩阵如图7(b)所示。从混淆矩阵中可以看出,大约有5%的其他作物错分到大豆类别,3%的其他作物分到植被中;3%的大豆错分为其他作物,1%的大豆错分为植被。植被、其他作物、大豆三类由于光谱特征类似,较易混淆。
Fig. 7 Results and confusion matrix of the neural network model

图7 神经网络方法分类结果及混淆矩阵

3.2 SLIC面向对象聚合结果

图8为研究区某一小地块的SLIC分割结果与eCognition多尺度分割的效果对比图。eCognition分割尺度利用ESP工具确定为52,可以看出eCognition多尺度分割结果较为破碎,小斑块较多,SLIC跟分割与地块更接近,分割对象较为完整。为了解决分类后的“椒盐现象”,使用SLIC方法进行面向对象分割,并统计对象内部像元的类别占比,以占比最多的类别作为对象的类别。
Fig. 8 Comparison between SLIC segmentation and muti-scale segmentation in eCognition

图8 SLIC分割与eCognition 多尺度分割结果对比

将多层神经网络分类结果与SLIC分割结果进行聚合,取每个对象中频率最高的类别作为该对象的类别,其结果如图9所示,从细节图中可以看出,经过面向对象的聚合之后,其分类结果更为接近地块尺度的,同一地块中间的微小光谱差异导致的基于像元的分类结果不一致的情况也被很好的避免,不同地块不同作物信息被很好地表达。
Fig. 9 Distribution of soybean in beian county obtained from aggregating mutil-layer neural network results according to the SLIC segmentation

图9 北安市神经网络分类与SLIC聚合后的大豆分类结果

3.3 不同分类器分类精度对比

随机森林[17,18]、支持向量机[19]、决策树[20] 3种方法是遥感分类中较常用的方法,为了对比多层神经网络与常用分类器的精度,在Scikit-learn库的支持下实现了随机森林、支持向量机、决策树等方法。为了避免过拟合,决策树与随机森林的最大深度设为10(max_depth=10),决策树的其他参数默认;随机森林的树的棵树设为300(n_estimators=300),最大特征数与输入特征数一致,其他参数按照默认设置;支持向量机方法采用高斯函数作为核函数,惩罚系数C设为3,高斯函数的gamma参数设为1,其与参数默认。各种方法的分类结果如图10所示。细节图中采用B7、B6、B5的RGB合成方案,可以看出大豆与玉米的明显差别,大豆呈现亮黄色,玉米等其他作物呈现深黄色。从细节图中可以看出,多层神经网络分类结果与随机森林、支持向量机等方法的分类结果较为相似,都较好地区分了大豆与其他地物类型。
Fig. 10 Comparison between multi-layer neural network and typical machine learning method including support vector machine, decision tree, and random forest

图10 多层神经网络与典型机器学习方法分类结果对比

多层神经网络与随机森林、支持向量机、决策树等方法的用户精度以及生产者精度对比如表3所示。可以从中看出,对于其他作物与大豆的区分,随机森林、支持向量机、多层神经网络均展现出较高的分类精度,在其他作物的分类任务中,随机森林的用户精度最高,为96.24%,支持向量机的生产者精度最高,分别为92.66%,但是生产者精度与用户精度的调和平均数F1-Socre指标显示,多层神经网络分类精度最高,为93.95%;在大豆的区分中,多层神经网络的生产者精度最高,为95.51%,支持向量机的用户精度最高,为92.15%;根据由生产者精度与用户精度构建的综合反映模型的分类精度的F1-Socre指标显示,多层神经网络的分类精度最高,为93.53%,其次为随机森林、支持向量机;根据大豆与其他作物分类的总体精度,多层神经网络分类精度最高,达到93.95%,其次为支持向量机,精度为93.51%。
Tab. 3 Comparison of four methods' accuracy (%)

表3 不同机器学习方法精度比较。。

分类方法 其他作物 大豆 总体精度
用户精度 生产者精度 F1-Score 用户精度 生产者精度 F1-Score
随机森林 96.24 89.73 92.87 91.86 95.01 93.41 92.37
支持向量机 94.37 92.66 93.51 92.15 94.36 93.24 93.51
决策树 94.67 90.68 92.63 91.38 94.41 92.87 92.55
神经网络 95.56 92.39 93.95 91.63 95.51 93.53 93.95

4 讨论

4.1 波段重要性

为了进一步理解Sentinel-2各波段在分类过程所起的作用,将随机森林分类过程中的变量重要性进行比较,图11是Sentinel-2影像各波段在分类过程中的平均重要性,可是看出,近红外对于分类是最重要的,其次是红边波段3,窄边近红外波段,以及红光和红边波段2,绿光波段对分类起到的作用最小。对Sentinel-2的各类波段分布情况进行可视化,结果如图12所示,可以看出水体与建筑物和裸地两类在红边、近红外波段的差别较大,大豆与玉米、植被的区别在第二个红边波段,植被与玉米的区分则没有十分有效的波段,在后2个红边波段以及近红外波段均有些差异,其他农作物的反射率明显高于植被。
Fig. 11 Importance of features in the sentienl-2 data

图11 Sentinel-2各波段在分类中的特征重要性

Fig. 12 Distribution of bands for various classes

图12 各类别波段分布情况

4.2 多层神经网络的优点与不足

神经网络的实质是简单分类器的集成学习,将多个简单的分类器组合起来,以完成复杂任务。其优点在于非线性拟合能力强,通过本研究的精度对比可以发现,多层神经的分类能力略高于随机森林、支持向量机等传统高效分类器;多层卷积神经网络作为多层神经网络的一种,其在物体识别与图像分割领域取得的重大成功也印证了多层神经网络的分类能力。多层神经网络也存在着如下的问题:① 网络结构难确定,神经网络的网络结构确定是构建神经网络的基础,但是并没有固定的模式可以遵循,隐含层数过少,模型的非线性拟合能力欠佳,容易欠拟合,隐含层数过多容易出现较难训练和浪费计算资源的问题,容易将局部的最优解当成全局的最优解。② 分类过程仍是“黑箱”,多层神经网络的训练过程中产生的分类规则不能如决策树的分类规则一样直观理解。

5 结论

本研究利用Sentinel-2数据源,采用多层神经网络方法提取大豆种植面积,并与随机森林、决策树、支持向量机等机器学习方法进行了对比,最后利用Scikit-image扩展包中的SLIC分割方法对多层神经网络的结果进行聚合,最终得到北安市大豆分类结果。主要结论如下:
(1) 多层神经网络在大豆种植面积提取中分类精度最高,大豆分类生产者精度达到95.51%,总体精度达到93.95%,分类精度优于随机森林、决策树与支持向量机等方法。
(2) 神经网络分类结果与SLIC面向对象分割聚合之后,有效消除了面向像元的“椒盐现象”,聚合结果既忽略了同一地块的微小差别,又区分出了不同地块的作物差异,很好的体现了大豆的分布。
(3) 近红外在分类过程起的作用最大,其次是第三个红边波段,窄边近红外波段,以及红光和第二个红边波段;大豆与玉米等其他作物在第二个红边波段的反射率有较为明显的差异。Sentinel-2数据是进行大豆面积监测的绝佳数据源,可以进行大尺度大豆种植面积监测。

The authors have declared that no competing interests exist.

[1]
国家统计局.中华人民共和国2017年国民经济和社会发展统计公报[P]. 2018..

[ National statisticureau. Statistical bulletin on national economic and social development in 2017 of People's Republic of China[P]. 2018, ]

[2]
Zhang J H, Feng L L, Yao F M.Improved maize cultivated area estimation over a large scale combining MODIS-EVI time series data and crop phenological information[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2014,94:102-113.

[3]
Zhong L H, Grong P, Biging G S.Efficient corn and soybean mapping with temporal extendability: A multi-year experiment using Landsat imagery[J]. Remote Sensing of Environment, 2014,140:1-13.

[4]
Song X P, Potapov P V, Krylov A, et al.National-scale soybean mapping and area estimation in the United States using medium resolution satellite imagery and field survey[J]. Remote Sensing of Environment, 2017,190:383-395.

[5]
吴炳方,范锦龙,田亦陈等.全国作物种植结构快速调查技术与应用[J].遥感学报,2004,8(6):618-627.现有种植结构的分析都是基于统计数据 ,时效性低及精度差 ,难以及时为各级政府部门提供决策支持。以“中国农情遥感速报系统”使用的GVG农情采样系统和样条采样框架为基础 ,提出了快速获取全国农作物种植结构的技术方法 ,并以 2 0 0 2年为例 ,开展全国夏粮和秋粮种植结构的调查与现状分析。全国夏粮的粮经比例为 5 8%∶2 1% ,秋粮的粮经比例为 79%∶14 % ,粮食作物仍然占有较大的比例。调查表明 ,全国范围的种植结构在时间和空间上变化很大。黑龙江省的大豆种植成数最高 ,达到38% ,是中国的大豆主产区 ;吉林和辽宁两省的春玉米种植成数相差不大 ,高达 71% ;黄淮海地区夏粮以种植冬小麦为主 ,种植成数高达 97% (河北省 ) ,秋粮以夏玉米为主 ,种植成数高达 82 % (河南 ) ;以长江为界 ,冬小麦和油料在长江南北的种植成数变化很大 ,长江以北冬小麦与油料并重 ,以南以油料为主。秋粮则以中晚稻为主 ,种植成数均超过 6 6 % ;华南夏粮和秋粮均以水稻为主 ,其中广东的蔬菜瓜果的种植成数高达 2 9% ;西南地区的秋粮以中稻和夏玉米为主 ,其中云南省的棉麻糖的种植成数高达19% ,说明云南省仍然是中国的烟草大省。经济发达或邻近经济发达地区的省份的蔬菜瓜果的种植成数较大 ,如天津市高达 34%。

DOI

[ Wu B F, Fan J L, Tian Y C, et al.A method for crop planting structure inventory and its application[J]. Journal of Remote Sensing, 2004,8(6):618-627. ]

[6]
刘佳,王利民,滕飞等.RapidEye卫星红边波段对农作物面积提取精度的影响[J].农业工程学报,2016,32(13):140-148.在传统的可见光与红外波段基础上增加红边波段(690~730 nm),是当前高分辨卫星传感器研制的明显趋势。德国RapidEye卫星携带有红边波段传感器,该文基于黑龙江省北安市东胜乡2014年7月27日的RapidEye遥感数据,采用监督分类的方法,通过计算有红边参与条件下、无红边参与条件下,玉米、大豆及其他3种地物类型的可分性测度、分类精度及景观破碎度等指标,比较分析了2种波段组合方式下的红边波段对农作物面积提取精度的影响。其中,监督分类的训练样本是以覆盖研究区的2 km×2 km格网为基本单元,在玉米和大豆面积比例等概率原则下,选取了10个网格作为训练样本,样方内作物的识别采用目视解译的方式完成。精度验证是采用覆盖研究区的农作物面积本底调查结果评价的,本底调查数据是在5 m空间分辨率Rapideye数据初步分类基础上,根据多时相Landsat8/OLI(Operational Land Imager)数据季节变化规律,结合地面调查,采用目视修正的方法完成。结果表明,有红边参与的玉米、大豆和其他3种地物类型识别的总体精度为88.4%,Kappa系数为0.81,玉米、大豆和其他3种地物类型的制图精度分别为93.1%,86.0%和87.3%;没有红边参与的3种地物识别的总体精度为81.7%,Kappa系数为0.71,玉米、大豆和其他3种地区类型的制图精度分别为83.9%,73.4%和84.6%;通过引入红边波段,3种地物的总体识别精度提高了6.7百分点,玉米、大豆和其他3种地物类型的识别精度分别提高了9.2百分点,12.6百分点和2.7百分点。利用JeffriesMatusita方法计算了3种地物的可分性测度,玉米-大豆、玉米-其他、大豆-其他的可分性测度分别由0.84变为1.73、1.37变为1.81、1.27变为1.29;采用破碎度指数计算了景观破碎度,地块数量减少了69.2%,平均地块面积增加了2.2倍,平均地块周长增加了60.50%,地块面积与周长比增加了1.0倍。由上述研究结果可以看出,通过红边波段的引入,增加了地物的间的可分性测度,减少了“椒盐”效应造成的景观破碎度的增加,农作物面积识别整体精度得到了提高。目前搭载红边波段的卫星载荷越来越多,即将发射的国产卫星也拟增加红边波段提高作物识别能力,该文研究结果将为国产红边卫星数据在农业上的应用提供参考。

[ Liu J, Wang L M, Teng F, et al.Impact of red-edge waveband of RapidEye satellite on estimation accuracy of crop planting area[J]. Transactions of the Chinese Society of Agricultural Engineering, 2016,32(13):140-148. ]

[7]
Zeng L L, Wardlow B D, Wang R, et al.A hybrid approach for detecting corn and soybean phenology with time-series MODIS data[J]. Remote sensing of environment, 2016,181:237-250.

[8]
黄健熙,侯矞焯,苏伟等.基于GF-1 WFV数据的玉米与大豆种植面积提取方法[J].农业工程学报,2017,33(7):164-170.

[ Huang J X, Hou Y Z, Su W, et al.Mapping corn and soybean cropped area with GF-1 WFV data[J]. Transactions of the Chinese Society of Agricultural Engineering, 2017,33(7):164-170. ]

[9]
ZHANG X, WU B F, PONCE-CAMPOS G, et al.Mapping up-to-Date Paddy Rice Extent at 10 M Resolution in China through the Integration of Optical and Synthetic Aperture Radar Images[J]. Remote Sensing, 2018,10(8):1200.

[10]
Belgiu M, Drăguţ L.Random forest in remote sensing: A review of applications and future directions[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2016,114:24-31.

[11]
Zheng B J, Myint S W, Thenkabail P S, et al.A support vector machine to identify irrigated crop types using time-series Landsat NDVI data[J]. International Journal of Applied Earth Observation and Geoinformation, 2015,34:103-112.

[12]
Hecht-nielsen R. Theory of the backpropagation neural network[M]. Washington: Neural networks for perception. Elsevier. 1992:65-93.

[13]
Mas J F, Flores J J.The application of artificial neural networks to the analysis of remotely sensed data[J]. International Journal of Remote Sensing, 2008,29(3):617-663.

[14]
Glorot X, Bordes A, Bengio Y.Deep sparse rectifier neural networks[C]. In Proceedings of the fourteenth international conference on artificial intelligence and statistics, 2011:315-323.

[15]
吴炳方,田亦陈,李强子. GVG农情采样系统及其应用[J].遥感学报,2004,8(6):570-580.介绍了通过对GPS、VIDEO摄像头、GIS的综合集成 ,用于野外农作物采样的信息快速采集、定位和处理分析系统 ,简称为GVG农情采样系统。系统包括影像采集卡、视频摄像头、GPS接收卡、GPS天线和工控计算机 ,在野外采集时采用汽车为主要工作平台 ,以各级公路为样线进行动态采样。系统工作时实时采集GPS信号 ,捕捉视频影像 ,同时根据GPS位置自动获得GIS属性信息 ,并自动记录在后台数据库。野外工作结束后 ,系统提供的功能允许操作人员对每条记录的照片中各类农作物所占比例进行赋值 ,统计单元内各种作物的分类成数 ,包括采样线、县级、农业区划级和省级单元。GVG系统的自动数据采集方式和GIS支持下的图像分析和统计方法提高了数据的采集和室内数据分析的效率 ,同时保证了采样的精度 ,经过不同地区的精度检验 ,作为“中国农情遥感监测系统”的重要组成部分 ,在全国范围内对大宗农作物分类成数的监测精度达到 95 %以上。

DOI

[ Wu B F, Tian Y C, Li Q Z.GVG, a crop type proportion sampling instrument[J]. Journal of Remote Sensing, 2004,8(6):570-580. ]

[16]
Achanta R, Shaji A, Smith K, et al.SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE transactions on pattern analysis and machine intelligence, 2012,34(11):2274-2282.

[17]
Bargiel D.A new method for crop classification combining time series of radar images and crop phenology information[J]. Remote Sensing of Environment, 2017,198:369-383.

[18]
徐晗泽宇,刘冲,王军邦,等.Google Earth Engine平台支持下的赣南柑橘果园遥感提取研究[J].地球信息科学学报,2018,20(3):396-404.

[ Xu H Z Y, Liu C, Wang J B, et al. Study on extraction of citrus orchard in Gannan region based on google earth engine platform[J]. Journal of Geo-information Science, 2018,20(3):396-404. ]

[19]
Gallego F J, Kussul N, Skakun S, et al.Efficiency assessment of using satellite data for crop area estimation in Ukraine[J]. International Journal of Applied Earth Observation and Geoinformation, 2014,29:22-30.

[20]
Peña-barragán J M, Ngugi M K, Plant R E, et al. Object-based crop identification using multiple vegetation indices, textural features and crop phenology[J]. Remote Sensing of Environment, 2011,115(6):1301-1316.

Outlines

/