遥感科学与应用技术

改进区间二型模糊神经网络的遥感图像分割方法

  • 王春艳 , * ,
  • 王子康
展开
  • 辽宁工程技术大学软件学院,葫芦岛 125105

王春艳(1981— ),女,辽宁阜新人,博士,教授,主要从事遥感信息识别与提取研究。E-mail:

Copy editor: 黄光玉 , 蒋树芳

收稿日期: 2024-10-02

  修回日期: 2024-12-14

  网络出版日期: 2025-01-24

基金资助

国家自然科学基金青年科学基金项目(41801368)

辽宁省教育厅基本科研项目(青年项目)(LJKOZ2021154)

Improved Interval Type-2 Fuzzy Neural Network for Remote Sensing Image Segmentation

  • WANG Chunyan , * ,
  • WANG Zikang
Expand
  • School of Software, Liaoning Technical University, Huludao 125105, China
*WANG Chunyan, E-mail:

Received date: 2024-10-02

  Revised date: 2024-12-14

  Online published: 2025-01-24

Supported by

National Natural Science Foundation of China (Youth Science Fund)(41801368)

Liaoning Education Department's Basic Research Project (Youth Project)(LJKOZ2021154)

摘要

【目的】 高分辨率遥感图像具有丰富和精细的空间信息,但其丰富的细节却模糊了不同土地覆盖类型间的界限,增加了分割的模糊性和不确定性。针对遥感图像分割领域的这一问题,本文提出一种改进区间二型模糊神经网络的新型遥感图像分割方法。【方法】 该方法通过引入空间邻域信息及模型混合策略,构建混合回归隶属函数,实现对数据复杂特征的精细表达,以提升模型的适应性和特征提取能力;通过构建混合回归隶属函数的不确定区域来映射模糊和不确定的遥感数据特征,提高模型的鲁棒性;使用全连接神经网络结构进行特征整合,进一步增强模型的学习能力,同时引入焦点损失函数缓解类别不平衡问题的影响。【结果】 在WHDLD和Potsdam数据集上进行的地物类别分割实验中,提出方法的分割精度优于DeepLab v3+和UNet++,与区间二型模糊神经网络方法相比,总体精度平均提升了8.31%和10.48%,Kappa值提升14.07%和14.59%,F1-score提升16.36%和12.31%。【结论】 实验结果表明,提出方法成功应对了遥感图像分割中的模糊性和不确定性,有效缓解了土地覆盖分割中区域噪声造成的影响,具有分割精度高、泛化能力强等特点。

本文引用格式

王春艳 , 王子康 . 改进区间二型模糊神经网络的遥感图像分割方法[J]. 地球信息科学学报, 2025 , 27(2) : 522 -535 . DOI: 10.12082/dqxxkx.2025.240549

Abstract

[Objectives] High-resolution remote sensing images offer a wealth of detailed spatial information. However, this abundance of detail can blur the boundaries between different land cover types, thereby increasing the ambiguity and uncertainty of segmentation. To address this challenge in remote sensing image segmentation, this paper introduces an innovative segmentation method based on an improved interval type-2 fuzzy neural network. [Methods] By leveraging spatial neighborhood information and a model mixing strategy, a hybrid regression membership function is constructed to enable the precise representation of complex data features, thereby enhancing the model's adaptability and feature extraction capability. The uncertain region of the hybrid regression membership function is designed to map the fuzzy and uncertain features of remote sensing data, improving the model's robustness. The proposed approach utilizes a fully connected neural network architecture to enhance the model's capacity for feature integration and learning while incorporating a focal loss function to address the effects of class imbalance. [Results] In land cover segmentation experiments conducted on the WHDLD and Potsdam datasets, the proposed method significantly outperformed DeepLab v3+ and UNet++. The proposed method achieved average overall accuracy improvements of 8.31% and 10.48%, Kappa coefficient enhancements of 14.07% and 14.59%, and F1 score increases of 16.36% and 12.31%, compared to the interval type-2 fuzzy neural network. [Conclusions] The results demonstrate that the proposed method effectively addresses ambiguity and uncertainty in remote sensing image segmentation, significantly mitigating the impact of regional noise on land cover segmentation while achieving high segmentation accuracy and robust generalization capabilities.

1 引言

高分辨率遥感图像地物目标细节信息和地表覆盖信息等蕴含丰富,特征显著,具有巨大的高价值数据信息挖掘与应用潜力,已成为数字中国和数字经济建设的核心数据源之一[1],其精细、准确的像素级别分类结果可广泛应用于智慧城市、智慧交通、智慧农业等领域,特别是在大面积土地利用、土地覆盖测绘和灾害预测[2-3]等领域优势显著。高分辨率遥感图像为地表分析提供了更细腻的信息[4],然而丰富的图像细节反而模糊了不同地物类型之间的界限,尤其是相似性的增强,导致分割不确定性上升[5];另外,在结构复杂、变化多样的城市地域中,密集建筑物导致的阴影效应、材质与颜色的多样性,进一步加剧模型构建的复杂度[6]。现有遥感数据处理技术存在数据利用率低(不足获取率的5%)、高价值信息挖掘不充分问题,尤其是目标模型失真与背景噪声干扰导致的模糊性与不确定性,严重制约了遥感解译的精度[7]。如何在传统的基于人工数学分析的方法基础上,定量描述并分析遥感数据中模糊性与不确定性特征对于解译精度的影响机理,以此构建一个有机融合算法、知识与模型的多源遥感数据自动化分析框架,是提升遥感数据中目标要素提取和识别的智能化水平的关键。
当前,用于高分辨率遥感图像土地覆盖分割的算法种类繁多。UNet++作为一种先进的深度学习方法,在高分辨率遥感图像分割任务中表现优异,特别是在多尺度特征融合和特征传播方面具有明显优势[8]。然而,它具有计算复杂度高、参数量大以及过拟合风险等问题,使得其面对样本量较小、不确定性高的复杂高分辨率遥感数据时表现欠佳。基于Transformer架构的遥感图像分割模型在多个数据集上表现优秀,例如TMFNet模型[9]能够通过多模态特征融合模块加强特征提取以及Transformer的自注意力机制进一步增强模型的长距离依赖建模能力,但它在高分辨率图像上训练时间较长,需要大量的计算资源。基于DeepLab v3+的分割方法在标准数据集上表现良好,但它需要大量高质量标注数据和内存以保证模型性能,在数据分布差异较大、不确定性较高的情况下泛化能力较差[10]。最新提出的基于Mamba的分割方法,如RS-Mamba,它具有的全向选择性扫描模块能够在多个方向对遥感图像进行选择性扫描,从而提取多方向的空间特征,具有的线性复杂度和全局建模能力能够处理大遥感图像[11]。在对比实验中作为基准算法的深度森林(Deep Forest,DF)方法是一种受深度学习启发的集成学习方法,它可以根据各类数据集的特点自适应调节模型的复杂度,特别是在小样本数据集上表现突出,具有训练速度快、易于并行处理、精度高以及泛化能力强等优点,但无法充分应对高分辨率遥感图像中模糊性和不确定性特征引起的错分问题[12]
为了有效地描述复杂数据中由局部模糊、不确定特征以及数据差异引起的建模不确定性,Mendel等[13]提出了区间二型模糊建模(Interval Type-2 Fuzzy Model,IT2FM)方法。该方法通过对不确定数据构建区间模型,克服了传统模糊模型在处理复杂不确定性方面的局限性,实现了更精确的不确定度描述,也成为了二型理论发展与应用的标志性里程碑[14]。此后,以IT2FM为基础的区间二型模糊C均值算法[15]、基于高斯混合隶属函数的IT2FM方法(Interval Type-2 Fuzzy Model Based on Gaussian Mixture Membership Functions,IT2FM_GMM)[16-17]等方法将区间二型模糊理论与其他算法结合,在控制工程、智能系统和数据分析等领域效果显著,应用日益广泛。其中,Wang等[18]提出了区间二型模糊神经网络(Interval Type-2 Fuzzy Neural Network,IT2FNN),该方法将区间二型模糊理论对模糊和不确定性信息的推理能力与神经网络的优秀学习能力相融合,显著提高了处理模糊性与不确定性问题的能力,应用最多。与传统的卷积神经网络不同,IT2FNN通过区间二型模糊集合来处理输入数据的不确定性,使其在面对不精确或不完整的信息时更具鲁棒性[19]。IT2FNN在多种应用场景中具有出色的适应性和实用性,如Abiyev等[20]成功地在胎儿健康检测上应用了IT2FNN,证明其有效性;根据Lin等[21]的研究,IT2FNN具有精准建模的能力,能够准确预测刀具表面芯片的磨损状况,有效减少了生产维护成本。尽管IT2FNN成效显著,但存在超参数敏感性、黑盒特性与计算量大等主要局限,影响分割精度、速度与模型透明度。为此,Wang等[22]提出一种基于自适应加权平均隶属函数的IT2FM方法(Interval Type-2 Fuzzy Model Based on Neighborhood Adaptive Weighted Average,IT2FM_NWA),随后又提出了基于IT2FNN的高分辨率遥感图像分割方法[23],提出的2种方法均在保证区间二型模糊模型特性的同时有效规避了计算复杂度高的弊端,提高了分割精度。尽管上述方法取得了较好的效果,但对细小目标稀疏样本容忍度较低并且在复杂地形分割中仍面临显著噪声,导致分割精度下降问题。
鉴于此,本文提出一种改进区间二型模糊神经网络的新型遥感图像分割方法: ① 该方法将IT2FNN中的高斯隶属函数改进为包含空间邻域信息的混合回归隶属函数。同时构建均值与标 准差双重模糊的不确定区域来映射数据特征,实现复杂数据模糊与多重不确定信息的精准表达; ② 采用全连接神经网络结构,增强模型对复杂特征信息的整合与学习能力,使模型能够深入分析交错重叠等的特征; ③ 使用焦点损失函数替代传统的交叉熵损失函数,在保证计算效率的情况下避免了过拟合问题并加速收敛,有效处理类别不平衡问题带来的影响。

2 研究方法

Wang等[18]提出的IT2FNN一般包含五层结构,分别为输入层、模糊规则层、推理层、聚合层以及输出层,使用高斯隶属函数完成模糊操作,通过模糊规则和模糊推理来实现特征的提取和分类。高分辨率遥感图像复杂的细节特征及精细分割要求,使传统的IT2FNN需要制定大量繁琐的模糊规则,这不仅导致网络结构的复杂化,还使计算量呈指数级增长。为此,本文在保持区间二型模糊理论与神经网络结合优势的基础上改进ITF2NN。首先,将高斯隶属函数改进为混合回归隶属函数,对各类别进行建模,建立相应的区间二型模糊混合集合。随后,构建模型结构,使用全连接神经网络学习特征信息,简化模糊推理的复杂度,更好地整合和提炼模糊推理的结果。最后,引入焦点损失函数,缓解类别不平衡问题的影响。本文技术路线图如图1所示,其中矩形框为具体步骤,圆角矩形框为使用的方法。
图1 改进IT2FNN的遥感图像分割方法技术路线

Fig. 1 Improved IT2FNN for remote sensing image segmentation technical roadmap

2.1 区间二型模糊混合集合

为提升模型对复杂遥感数据的适应性与特征提取能力,使其能够在繁杂多变的数据中提取到足够与关键的特征信息,本文引入了空间邻域像素信息和模型混合策略。具体而言,为提升模型对复杂特征的提取能力、减少噪声的影响,将各像素的空间邻域信息纳入隶属函数模型计算过程;为增强模型对图像细节的描述能力,结合模型混合策略,更加精细地描述了地物类别的细节;将其定义为混合回归主隶属函数WR。为了更有效地处理遥感数据中的模糊性和不确定性,本文同时构建了各类别的均值和标准差的不确定区间二型隶属函数模型。在模糊均值与标准差的条件下,通过对像素主隶属度进行模糊映射,可以得到像素隶属度在模型计算中的上界 W R i j +和下界 W R i j -,从而有效界定其变化范围 W R i j ~。进而获得同时模糊均值和标准差的区间二型模糊混合集合 A ˜,进一步增强模型的鲁棒性和泛化能力,为下一步网络对特征信息的学习提供基础。给定高分辨率遥感图像 R S I = { r s i i , i = 1 ,   2 ,   3 ,   ,   n }i、nrsii分别代表像素的索引、最大像素数和索引为i的像素的灰度值。区间二型模糊混合集合 A ˜由式(1)可得。
A ˜ = r s i i R S I r s i i ' R S I W R i j ~ r s i i ,   r s i i ' / r s i i ,   r s i i '                      
主隶属函数WR如下:
W R i j = w 1 · G R 1 i j ( r s i i ; μ 1 j ,   σ 1 j ) + w 2 · G R 2 i j ( r s i i ; μ 2 j ,   σ 2 j )
G R i j ( r s i ; μ j ,   σ j ) = 1 2 π σ j e x p - r s i i - μ j 2 + 1 # R i i R i ' r s i i ' - μ j 2 2 σ j 2
式中:WRij代表索引为i的像素属于第j类的隶属度; jj=1, 2, 3, …, k)代表类别索引; μjσj分别代表第j类像素灰度值的均值和标准差; w1w2分别代表混合模型中单模型的权重系数; Ri是以第i个像素为中心的5像素×5像素窗口中的其余邻域像素; #表示用于获得Ri中元素的运算符;并且i'表示窗口中的像素索引。GR以邻域像素的隶属度为权重,考虑了邻域像素的影响,同时强调中心像素在灰度空间中的作用。
文中对每个标签类别的区域进行随机采样,取得的训练样本为Tj={Ttj, t=1, 2, …, N },tN分别表示训练样本的像素索引和训练样本中的最大像素数。计算样本灰度范围内的每个灰度值的频率值集F={Fsj, s=0, 1, 2, …, 2b },Fsj={#{Ttj=s}}/N表示第j类中像素值为s的直方图频率,其中#表示用于获得Ttj中像素值为s的数量,b表示灰度级。在本文中,由于数据的复杂性和非线性特性,使用EM(期望最大化)算法来对权重系数w、均值μ和标准差σ这些普通参数进行参数估计。
使用上述主隶属函数可以得到一型模糊混合集合A。
A = r s i i R S I W R i j r s i i ,   r s i i ' / r s i i ,   r s i i '
图2给出了一型模糊混合集合的特征曲面映射图,图中X轴和Y轴分别代表中心像素值及其邻域内某像素的值,Z轴表示隶属度的值。图2(a)图2(b)描绘了集合的隶属度值随中心像素值及其邻域像素值变化的趋势,图2(c)图2(d)为调整权重参数得到的结果。可见,文中构建的集合能够通过均值和标准差的变化更细腻地模拟复杂多变的隶属度分布,实现对于模糊性和不确定性数据的灵活映射。
图2 特征曲面图

Fig. 2 Feature surface plot

构建各类别的均值和标准差的不确定区间以便于进行主隶属函数的模糊操作:均值μ1j从确定的数值变为区间 [ μ 1 j - ,   μ 1 j + ],均值μ2j变为 [ μ 2 j - ,   μ 2 j + ];同样地,σkj从确定的数值转换为区间 [ σ k j - ,   σ k j + ]。区间边界可根据式(5)—式(7)计算。
μ k j + = μ k j + η j × L μ k j - = μ k j - η j × L                   η j [ 0 ,   6
L =   k w k j σ k j / 2
  σ k j + = σ k j / κ j σ k j - = σ k j × κ j               κ j [ 0.3 ,   1.0 ]
式中:超参数ηjκj分别代表第j类的均值及标准差的模糊区间调整系数;L代表均值的模糊长度常数。
假设区间中每个隶属函数出现的概率相同,则高斯分布“真隶属函数”落在[μ-3σ, μ+3σ]的可能性为99.7%,由此可确定超参数的取值范围,并且由于L是各标准差的加权平均值,可以得到调整系数ηjκj(取值范围分别为[0,6]和[0.3,1.0]),以实现更准确的数据调整,并限制模型在X轴和Y轴方向上的不确定性覆盖区的变化。由于是在已有的主隶属函数基础上进行模糊化操作,本文选用更高效、能利用已有结果进行优化的贝叶斯优化方法来确定最优超参数组合。ηjκj均为模糊区间调整系数,其变化所产生的模糊幅度记为f,以此来统一衡量其对模型性能的影响。如图3所示,展示了超参数在一组训练数据上对模型的总体精度和训练时间的影响。在模糊化操作后,2项指标均有所提升,但随着模糊幅度f的增加,它们始终在一定范围内波动,这表明模糊幅度并非越大越好,总体精度达到峰值时对应的f值与训练时间峰值对应的f相吻合,且ηj对模型性能的影响更大。
图3 超参数对模型总体精度及训练时间影响

Fig. 3 Impact of hyperparameters on model overall accuracy and fit time

区间二型模糊混合隶属函数 W R i j ~中上隶属函数 W R i j +和下隶属函数 W R i j -见下式。
W R i j + = m a x   k w k j G R k j r s i i ; μ k j ~ ,   σ k j + r s i i μ m j -   k w k j G R k j μ m j ; μ k j ,   σ k j + μ m j - r s i i μ m j + m a x   k w k j G R k j r s i i ; μ k j ~ ,   σ k j + r s i i μ m j +
W R i j - = m i n   k w k j G R k j r s i i ; μ k j ~ ,   σ k j - r s i i μ x j -   k w k j G R k j μ x j ; μ k j ,   σ k j - μ x j - r s i i μ x j + m i n   k w k j G R k j r s i i ; μ k j ~ ,   σ k j - r s i i μ x j +
式中:   μ k j ~表示均值的不确定区间; μmjμxj分别代表混合模型中具有最大和最小隶属度值的单个函数的均值。上隶属函数中,以μmj的不确定区间边界为界限划分出3个隶属函数模糊区域,即模糊区域A,模糊区域B和模糊区域C。在模糊区域B中,采取最大隶属度原则,使用模糊后最大的主函数隶属度值进行填充。在模糊区域A和模糊区域C中,同时使用调整系数ηjκj进行模糊操作,以均值和标准差的不确定区间进行替换并取得最大值进行填充。下隶属函数中,使用μxj以类似的方法对隶属函数进行模糊操作。

2.2 模型结构

提出的改进IT2FNN的模型:基于双重模糊混合回归隶属函数的全连接神经网络,其结构如图4所示,包括输入层、模糊化层、全连接输入层、隐藏层和输出层。
图4 改进IT2FNN的模型结构

注:WR+、WRWR-分别表示各类别的上、主、下隶属函数模型;Norm表示标准化和归一化操作;Em+、EmEm-代表训练数据通过对应的上、主、下隶属函数计算并经过标准化、归一化和编码操作后形成的特征向量。

Fig. 4 Model architecture of improved IT2FNN

(1)输入层:输入层用于接收从遥感数据中划分出的训练样本的像素m(m=1, 2, 3, …, N)。计算训练样本对应每个类别的直方图频率yj=[ ym1, ym2, …, ymk ],将其组合为频率值集F,随后将其传输到模糊化层。
(2)模糊化层:不确定区间根据式(5)—式(7)计算可得,将其代入区间二型模糊混合隶属函数模型并根据像素的空间邻域信息(SNInfo)对神经元进行定义,再为训练样本在所有类别的上、下以及主隶属函数的隶属度进行模糊计算,得到训练样本的特征向量并输出到全连接输入层,这些特征向量综合代表了样本的多维隶属度信息。在这一层中,神经元节点的数量是类别数量的3倍,完成的功能是对输入数据和数据在图像灰度空间中的空间相关性进行建模,描述模糊与不确定特征,并实现输入向量隶属度的不确定性表达。
(3)全连接输入层:接收到的原始训练样本的特征向量并不能直接用于网络学习,需要进行标准化、归一化和编码操作,最后形成如下特征向量:
E m = E m 1 - ,   E m 1 ,   E m 1 + ,   ,   E m k - ,   E m k ,   E m k +  
式中:Em表示m在第1到第k个类别中的所有隶属度形成的3×k维特征向量。
(4)隐藏层:这里的多层全连接神经网络结构通过复杂的权重矩阵和非线性激活函数(ReLU)进行交互,以连续、确定性的方式进行。每一层的神经元通过学习权重来捕捉输入数据的复杂特征关系,Batch Normalization和Dropout机制可以间接对应于特征的规范化和选择过程,减少了不确定性和过拟合风险,并对模糊推理结果进行整合与精炼。最终通过Softmax激活函数将每个节点的输出转化为0~1之间的值,并确保所有类别概率之和为1,然后进行解码操作并输出分类置信度。在训练中,传统交叉熵损失函数无法很好地应对在遥感图像分割中普遍存在的类别不平衡问题,导致少数类被忽略。相比之下,焦点损失函数能够以近乎相同的计算效率来达到更好的类别平衡效果,减少过拟合并加速收敛。此外,它对噪声数据的鲁棒性更强,在处理噪声数据时表现更好。其公式如下:
L ( p t ) = - α t 1 - p t ) γ l o g ( p t )
式中: ptαtγ分别为预测概率、权重与调节因子。
(5)输出层:得到了训练样本在所有类别中的分类决策隶属度后,转化为隶属度矩阵,并根据最大隶属度函数准则实现分割决策:
A * = [ X m j ] N × k ,   B i = a r g j { m a x { X i j } }
式中: Xmjm属于第j类的分类决策隶属度;B={B1,B2, B3, …, Bn}表示区域结果。在输出中,属于某一类别的最大隶属度是像素的类别,最后输出预测结果。

3 实验与结果分析

3.1 实验设计与数据来源

为全面验证本文方法的分割性能,以及对于模糊与不确定特征带来的分割难题的处理能力,实验选用WHDLD与Potsdam两大数据集进行像素级地物类别分割实验。WHDLD数据集是一个密集的标签数据集,由武汉大学于2018年发布,包含4 940幅256像素×256像素的图像,其包含的6种类型的遥感地物类型适合验证模型的分割能力[24-25]。Potsdam是ISPRS(国际摄影测量与遥感学会)提供的开源遥感图像数据集,总计包含38幅6 000像素× 6 000像素的高分辨率图像,地面真实值标注由ISPRS官方给出,涵盖RGB、RGBIR与RG-IR 3种图像模式,其中IR代表红外波段。由于计算资源的约束,将数据集中的图像裁剪为600像素×600像素大小的切片,采用RGB图像作为输入。这两个数据集涵盖多元地貌及结构,丰富多样的地物种类与复杂空间信息,确保模型在各种环境下进行充分且深入的适用性测试。WHDLD数据集具有裸露土壤、建筑物、人行道、道路、植被以及水等地物,而Potsdam数据集则包含了不透水面、建筑物、低矮植被、树木、汽车和杂项等多种结构。
实验使用总体精度(Overall Accuracy,OA)、Kappa、精确度(Precision)、召回率(Recall)、F1-score、平均交并比(mIoU)和频权交并比(FWIoU)) 7项指标来全面评估各方法在不同数据集上执行分割任务的表现。各评价指标越高,结果越精确。F1-score是一个结合了Precision和Recall的综合指标,计算方式如下:
P r e c i s i o n = T P T P + F P
R e c a l l = T P T P + F N
F 1 - s c o r e = 2 × P r e c i s i o n × R e c a l l P r e c i s i o n   +   R e c a l l
式中:TPFPTNFN分别为真正例、假正例、真反例和假反例样本数量。
硬件环境为一台配备8内核16线程Intel(R) Core(TM) i7-11800H 处理器、16 GB内存以及GeForce RTX 3070 图形处理单元的PC。软件环境为Python 3.8.13、TensorFlow 2.3.0和Keras 2.15。
为验证本文方法在遥感图像分割任务中的性能,将其与DF方法[12]、IT2FM_GMM方法[17]、IT2FM_NWA方法[22]、IT2FNN方法[23]、DeepLab v3+方法[26]以及UNet++方法[8]进行比较。这些方法在不同方面展现了各自的优势,提供了多样化的参考。DF是一种基于树模型的深度学习替代方法,通过多层级联的随机森林和完全随机树森林逐层提取特征并进行分类,能够在多种任务中取得优秀表现,选择DF为基准,可以验证本文方法在高分辨率遥感图像上的性能优势。IT2FM_GMM和IT2FM_NWA是基于区间二型模糊模型的经典方法,分别在处理不确定性和模糊性问题以及处理局部信息和噪声上占优。其中,IT2FM_GMM使用高斯混合隶属函数增强模糊模型的表现力,IT2FM_NWA通过引入自适应加权平均隶属函数提高局部特征表达能力,IT2FM_GMM能够帮助验证本文方法在处理不确定性方面的改进效果,而IT2FM_NWA有助于评估本文方法在局部特征捕捉方面的表现。IT2FNN结合区间二型模糊理论和神经网络的优点,增强了模型处理分割中不确定性和模糊性问题的能力,是本文方法的基础模型,可以更直观地展示本文方法的改进效果。DeepLab v3+通过空洞卷积和ASPP模块捕捉不同尺度特征以增强特征提取;UNet++通过跳跃连接和密集连接增强特征传递和细节保留。DeepLab v3+和UNet++都是经典的深度学习模型,在图像分割任务中广泛使用,能验证本文方法在高分辨率遥感图像上的适用性和有效性。
为保证评价结果的客观一致性,本文在不同方法中采用了统一的数据预处理和训练策略。将数据划分为训练数据和测试数据,其中训练比例设置为70%,剩余30%为测试数据,所有方法均对输入数据施行批量归一化处理,以确保数据的一致性和稳定性。其中,DF使用默认参数,IT2FM_GMM、IT2FM_NWA和IT2FNN使用的隶属函数都仅模糊均值,DeepLab v3+和UNet++均未使用预训练权重,初始学习率设置为0.001。

3.2 实验结果分析

3.2.1 WHDLD数据集实验结果分析

本文深入探讨了DF、IT2FM_GMM、IT2FM_NWA、IT2FNN、DeepLab v3+、UNet++以及本文方法在WHDLD数据集图像分割任务中的表现,各方法的分割性能评价指标见表1。在此任务中,本文模型表现优秀,在各个评价指标上分别达到了0.925 7、0.889 9、0.865 1、0.936 3、0.899 3、0.832 5和0.843 4,相较于IT2FNN在各个方面都有明显提高,特别是mIoU提升明显,表明其对于各类别的良好分割能力。而除了IT2FNN以外的其他基于区间二型模糊集的方法,在各项指标上大都劣于作为基准算法的DF,但随着模型复杂度以及引入信息的提升,各指标也在稳步提高。DeepLab v3+和UNet++在各个指标上也表现优秀,但仍略逊于本文模型。值得注意的是,DF、DeepLab v3+和UNet++的结果中会得到标签图像以外的类别,为公平评估模型性能,文中忽略标签图像中未出现的类别后进行mIoU计算。
表1 WHDLD数据集中各方法的分割性能评价指标

Tab. 1 WHDLD segmentation task performance metrics for various methods

方法 OA Kappa Precision Recall F1-score mIoU FWIoU
DF 0.786 3 0.618 6 0.631 2 0.575 1 0.601 8 0.380 7 0.625 2
IT2FM_GMM 0.642 1 0.518 4 0.592 2 0.678 3 0.632 0 0.365 2 0.484 3
IT2FM_NWA 0.676 3 0.559 8 0.608 3 0.699 7 0.650 4 0.379 8 0.501 9
IT2FNN 0.842 6 0.749 2 0.701 3 0.774 5 0.735 7 0.645 7 0.714 4
DeepLab v3+ 0.869 4 0.789 5 0.778 3 0.834 6 0.805 6 0.686 6 0.782 9
UNet++ 0.882 8 0.815 6 0.803 8 0.851 9 0.826 8 0.731 8 0.815 7
本文方法 0.925 7 0.889 9 0.865 1 0.936 3 0.899 3 0.832 5 0.843 4
表1可知,DF的mIoU相较于其FWIoU差距较大,这表明该方法在处理类别不平衡问题上存在一定的局限性,在主要类别和所有类别上的表现差距明显。IT2FM_GMM和IT2FM_NWA在mIoUFWIoU上均劣于DF,表现相对较差。而IT2FNN表现良好,mIoUFWIoU分别达到0.645 7和0.714 4,但相较于本文方法仍有一定差距。DeepLab v3+以及UNet++表现优秀,mIoU分别为0.686 6与0.731 8,FWIoU分别为0.782 9与0.815 7,但mIoU相对本文模型较低,无法充分应对模糊性与不确定性。本文方法使用双重模糊的混合回归隶属函数,加强了对于模糊与不确定特征信息的提取能力,使用焦点损失函数处理类别不平衡问题的影响,mIoUFWIoU分别达到0.832 5和0.843 4,充分应对了分割中的模糊性与不确定性。
表2所示,为更加具体的评估各个方法在WHDLD数据集上的分割能力,表2给出了详细的各类别不同方法的分割精度。DF方法对于水类别的分割精度为0.820 1,表现良好,但对于建筑物和裸露土壤这种少数类表现非常差,分别为0.147 9和0.110 3,这表明模型在处理类别不平衡问题上存在不足。IT2FM_GMM方法采用了模型混合策略,提升了其对于大部分类别的特征提取和分割能力。IT2FM_NWA在水和道路上表现出色,分别达到0.953 6和0.615 2,但在植被和人行道类别上表现较差,最高仅为0.292 5。IT2FNN在绝大多数类别上表现出色,但在植被和人行道上依然略逊一筹。DeepLab v3+以及UNet++在大部分类别上表现优秀,但在少数类别上表现较差,如裸露土壤、建筑物,在裸露土壤上分别为0.694 3和0.417 2。相比于其他模型,本文提出的模型使用双重模糊的不确定区间来映射不确定特征,使用全连接结构加强对特征信息的学习能力,在各类地物的识别和分割上均展现出优异性能,尤其是在复杂相近的裸露土壤与道路类别上取得了卓越的准确度,展现了它对于复杂的模糊和不确定地物类别的优秀处理能力。在引入创新以提升模型性能后,本文方法消耗的时间与其他基于IT2FM的高分辨率遥感图像分割方法相当,并且相对于DF方法节省了大量的计算成本。具体而言,用于训练学习一张高分辨率遥感图像的平均时间消耗为:DF(25.31 s)、IT2FM_GMM(12.52 s)、IT2FM_NWA(14.27 s)、IT2FNN(13.57 s)、本文方法(13.76 s)。
表2 WHDLD数据集中各类别分割精度

Tab. 2 Segmentation accuracy for various classes in WHDLD

方法 建筑物 裸露土壤 植被 人行道 道路
DF 0.820 1 0.147 9 0.110 3 0.675 3 0.423 5 0.215 0
IT2FM_GMM 0.940 6 0.463 1 0.535 0 0.212 2 0.307 7 0.549 5
IT2FM_NWA 0.953 6 0.598 2 0.551 6 0.149 4 0.292 5 0.615 2
IT2FNN 0.910 6 0.953 2 0.779 5 0.636 7 0.668 3 0.848 8
DeepLab v3+ 0.925 3 0.765 8 0.694 3 0.901 7 0.689 1 0.757 6
UNet++ 0.955 3 0.760 9 0.417 2 0.914 4 0.695 5 0.826 0
本文方法 0.927 1 0.955 0 0.953 3 0.810 7 0.931 4 0.957 3
为更深入地探究各方法在WHDLD数据集上不同地物类别的分割表现,本文给出了如图5所示的分割结果。DF出现了大量的错分与混淆。IT2FM_GMM和IT2FM_NWA表现一般,特别是在第二组分割图中,无法做到对建筑物类别的识别与分割,难以应对分割的模糊和不确定问题。IT2FNN表现较好,但出现了较多噪点,影响了分割效果。DeepLab v3+和UNet++表现优秀,但出现了部分错分区域,如第四组和第六组分割图;并且在第三组分割图中忽略了裸露土壤这种少数类,无法将模糊和不确定的地物类别精准分割,出现分割边缘不完整等问题。本文方法在WHDLD图像分割任务中表现优异,使用的模型混合策略增强了模型对图像细节的描述,空间邻域信息的引入使得模型相较于IT2FNN减少了噪点在分割结果中的出现。
图5 WHDLD分割任务的实验结果

Fig. 5 Experimental results for the WHDLD segmentation task

图5中,对于拥有模糊和不确定特征的复杂相近的地物类别,如第三组分割图中部与水体交融的裸露土壤类别、第五组分割图上半部分中与人行道交错的建筑物类别,DF、DeepLab v3+以及UNet++方法均无法将其正确分割。而基于IT2FM的方法大都能将其正确分割,但IT2FNN在分割时出现了大量噪点,严重影响精度。在引入空间邻域信息和双重模糊的不确定区间后,本文模型相较于IT2FNN错分噪点明显减少,能够对上述类别进行完整、准确的分割。可见,提出模型对于复杂相近地物的分割能力优于其他方法。
对于图像中细小地物目标的划分,DeepLab v3+和UNet++倾向于将这些细小的地物视为噪点,并将其掩盖在主要类别之下,导致这些细小地物的细节信息丢失。基于IT2FM方法虽然具有识别细小地物目标的能力,但由于建模过程未考虑空间关系,分割结果通常会带有噪点。如第四组分割图右下部分的建筑群,IT2FNN表现稍好,但仍出现显著噪点。而本文使用模型混合策略成功保留了这些细节信息,同时引入空间邻域信息减少了噪点的出现。由此可见,本文方法具有准确识别分割高分辨率遥感图像中细小地物目标的能力。

3.2.2 Potsdam数据集实验结果分析

为全面评估本文方法在多样化场景中的适用性,验证模型在多样化地物环境下处理模糊性和不确定性分割难题的稳健性,文中使用Potsdam数据集进一步进行分割实验。
表3给出了各方法在Potsdam数据集分割任务中的分割性能评价指标。观察可知,本文方法在所有评价指标上均表现优异,各指标分别达到了0.903 5、0.866 7、0.835 6、0.937 1、0.874 3、0.807 7和0.819 9,与其他方法相比,本文方法依然能够展现出明显优势。可见,提出方法适应多样化应用场景。
表3 Potsdam数据集中各方法的分割性能评价指标

Tab. 3 Potsdam segmentation task performance metrics for various methods

方法 OA Kappa Precision Recall F1-score mIoU FWIoU
DF 0.756 3 0.606 3 0.571 2 0.536 4 0.539 1 0.414 1 0.600 6
IT2FM_GMM 0.605 7 0.445 9 0.459 6 0.493 1 0.454 8 0.361 4 0.459 6
IT2FM_NWA 0.640 4 0.540 5 0.571 3 0.665 2 0.576 5 0.403 6 0.512 6
IT2FNN 0.798 7 0.720 8 0.738 3 0.791 6 0.751 2 0.579 7 0.672 1
DeepLab v3+ 0.863 4 0.801 2 0.805 1 0.842 8 0.824 6 0.766 2 0.801 4
UNet++ 0.880 1 0.825 9 0.820 2 0.890 4 0.853 4 0.783 6 0.805 3
本文方法 0.903 5 0.866 7 0.835 6 0.937 1 0.874 3 0.807 7 0.819 9
图6为Potsdam数据集的分割任务结果,分割结果显示,本文方法在Potsdam数据集的图像分割任务中依然保持着稳定且出色的表现。
图6 Potsdam分割任务的实验结果

Fig. 6 Experimental results for the Potsdam segmentation task

表4是Potsdam数据集中不同方法与各个地物类别相对应的分割精度。从数据中可观察到:DF对不透水面的分割精度为0.810 3,而对杂项、建筑物等分割精度仅为0.108 3和0.128 9。IT2FM_GMM和IT2FM_NWA模型在建筑物、低矮植被和树木上表现稍好,最高分别为0.533 9和0.539 4,但在杂项上仅为0.123 7和0.108 4。IT2FNN模型尽管在建筑物等部分地物类别上表现优秀,最高达到0.949 3,却在树木和杂项上表现一般,分别为0.710 0和0.718 6。DeepLab v3+和UNet++在绝大多数地物类别上表现突出,特别是不透水面类别,分别达到0.887 8和0.889 4,但是在杂项上仅有0.485 9和0.536 4。相比之下,本文模型在各地物类别上表现稳定且优异,尤其是在少数类别杂项上表现突出,分割精度达到0.947 5,优于DeepLab v3+和UNet++。
表4 Potsdam数据集中各类别的分割精度

Tab. 4 Segmentation accuracy for various classes in Potsdam

方法 建筑物 杂项 树木 低矮植被 汽车 不透水面
DF 0.128 9 0.108 3 0.320 4 0.425 4 0.192 2 0.810 3
IT2FM_GMM 0.503 3 0.123 7 0.426 5 0.533 9 0.344 9 0.427 3
IT2FM_NWA 0.534 5 0.108 4 0.437 5 0.539 4 0.358 8 0.427 5
IT2FNN 0755 5 0.718 6 0.710 0 0.740 2 0.949 3 0.732 0
DeepLab v3+ 0.866 4 0.485 9 0.790 1 0.830 7 0.862 5 0.887 8
UNet++ 0.869 1 0.536 4 0.793 0 0.893 9 0.885 0 0.889 4
本文方法 0.879 4 0.947 5 0.799 3 0.954 2 0.951 7 0.793 1

3.3 消融实验分析

为探究并分析不同因素对模型分割性能的影响,共进行了6组消融实验。由于IT2FNN不使用损失函数,所以并不对其设置单独改进损失函数的消融实验。表5为使用WHDLD数据集的消融实验改进点对比分析表。其中,设置改进点P1为改进的双重模糊混合回归隶属函数,改进点P2为全连接结构,改进点P3为焦点损失函数。E1:原始IT2FNN模型,为基线模型。E2:在基线模型基础上引入全连接结构,使用传统交叉熵损失函数。E3:在E2的基础上使用焦点损失函数。E4:在基线模型基础上加入改进的双重模糊混合回归隶属函数。E5:在E4基础上使用全连接结构,使用交叉熵损失函数。E6:本文提出模型。
表5 消融实验改进点对比分析

Tab. 5 Comparative analysis of enhancements in ablation experiments

编号 基线 点P1 点P2 点P3 OA Kappa Precision Recall F1-score mIoU FWIoU
E1 0.842 6 0.749 2 0.701 3 0.774 5 0.735 7 0.645 7 0.714 4
E2 0.859 9 0.793 8 0.724 1 0.835 9 0.777 6 0.671 4 0.733 2
E3 0.873 4 0.816 6 0.753 4 0.863 0 0.804 6 0.699 8 0.768 5
E4 0.896 0 0.849 7 0.816 2 0.881 1 0.847 6 0.764 6 0.798 1
E5 0.910 5 0.871 9 0.849 3 0.901 2 0.874 4 0.797 8 0.815 2
E6 0.925 7 0.889 9 0.865 1 0.936 3 0.899 3 0.832 5 0.843 4
图7为WHDLD数据集消融实验的分割结果,根据各组实验结果对比,可以清晰地观察到不同改进点对模型性能的影响。由E1的分割结果可观察到,IT2FNN的结果中出现明显的错分区域和噪点。加入改进点P2和P3后,E2和E3的结果中出现的噪点略微减少,但对错分区域的改善并不明显。与E1相比,E4有效减少了错分区域和噪点的出现。这是由于P1中引入的空间邻域信息加强了模型对复杂特征的捕捉能力,减少了分割结果中噪点的出现;同时,使用的模型混合策略也增强了模型对图像细节的描述能力。进一步加入改进点P2和P3后,E5和E6的分割结果显示,错分区域面积和噪点相较于E4逐步减少,对于建筑物等地物类别的分割也更加完整和准确,展现出模型对特征的学习能力和处理类别不平衡问题的能力的增强。综合观察表5图7可得到以下结论:
图7 WHDLD数据集的消融实验分割结果

Fig. 7 Segmentation results of the ablation experiments on the WHDLD

(1) E1、E2和E3的表现相对一般,E1的OAmIoU分别达到了0.842 6和0.645 7。尽管E2与E3随着改进点的引入,与E1相比OA分别提升0.017 3和0.030 8,mIoU分别提升0.025 7和0.054 1。但在复杂场景下,它们对建筑物类别的识别和分割仍有不足,出现显著噪点,容易将其与人行道混淆。
(2) 由E4与E1至E3比较可知,加入改进点P1后,对比E1加入P2和P3两项改进,模型各评价指标提升明显,其中,OAmIoU分别提升0.053 4和0.118 9,提高了模型对模糊和不确定类别特征的捕捉能力。观察图像可得,E4对于复杂建筑物类别的捕捉相对于E1有明显改善。
(3) E5与E6随着改进点的增加,各评价指标逐渐上升,其中,OA分别达到0.910 5和0.925 7,mIoU分别达到0.797 8和0.832 5,并且减少了错分区域和错分噪点的出现。
(4) E6为本文提出的模型,通过结合均值与标准差双重模糊、模型混合策略以及邻域空间信息,有效提升了对图像细微特征与变化的捕捉能力、减少噪点。采用的全连接网络结构和焦点损失函数能够有效学习模糊和不确定的类别特征、缓解类别不平衡的影响,共同使得模型展现出更出色的性能和高度的稳定性。

4 结论

针对高分辨率遥感图像分割中丰富和精细的空间信息带来的模糊性和不确定性,本文提出了一种基于双重模糊混合回归隶属函数的全连接神经网络遥感图像分割方法。该方法在IT2FNN的基础上对隶属函数、模型结构以及类别不平衡问题的处理等方面进行了优化,并使用WHDLD和Potsdam数据集进行实验以验证改进的有效性。实验结果显示,这些改进有效提升了模型的分割性能。
(1)改进隶属函数,引入空间邻域像素信息和模型混合策略,并使用均值和标准差双重模糊来映射数据特征,增强模型对图像细节和模糊与不确定特征信息的提取能力,以及对细小地物目标的捕捉能力。在WHDLD消融实验中,改进隶属函数后,模型的OAmIoU相较于IT2FNN分别提升0.053 4和0.118 9,达到0.896 0和0.764 6。
(2)使用全连接结构加强模型对特征信息的学习能力,同时引入焦点损失函数缓解类别不平衡问题的影响。在消融实验中,相较于改进隶属函数后的模型,OA分别提升0.014 5和0.015 2,mIoU分别提升0.033 2和0.034 7。
(3)在WHDLD数据集上,本文方法的OAmIoU分别达到0.925 7和0.832 5;在Potsdam数据集上,本文方法的OAmIoU分别达到0.903 5和0.807 7。在WHDLD和Potsdam数据集上的实验证实了该方法在面对具有复杂和相近特征的地物类别时能将其精准分割,减少错分噪点的同时,保留了细小地物目标的细节信息,具有分割精度高,泛化能力强等特点。
综上,本文方法不仅在分割精度上提升明显,且在面对类别不平衡问题的影响时也表现优秀。未来将结合其他深度学习方法,进一步增强模型对于图像中模糊性与不确定性的处理能力与分割性能。
利益冲突: Conflicts of Interest
所有作者声明不存在利益冲突。
All authors disclose no relevant conflicts of interest.
作者贡献: Author Contributions
王春艳和王子康参与实验设计;王子康完成实验操作;王春艳、王子康参与论文的写作和修改。所有作者均阅读并同意最终稿件的提交。
The study was designed by WANG Chunyan and WANG Zikang. The experimental operation was completed by WANG Zikang. The manuscript was drafted and revised by WANG Chunyan and WANG Zikang. All the authors have read the last version of paper and consented for submission.
[1]
Zheng X X, Chen T. High spatial resolution remote sensing image segmentation based on the multiclassification model and the binary classification model[J]. Neural Computing and Applications, 2023, 35(5):3597-3604. DOI:10.1007/s00521-020-05561-8

[2]
Tong X Y, Xia G S, Lu Q K, et al. Land-cover classification with high-resolution remote sensing images using transferable deep models[J]. Remote Sensing of Environment, 2020, 237:111322. DOI:10.1016/j.rse.2019.111322

[3]
Shi Y, Qi Z X, Liu X P, et al. Urban land use and land cover classification using multisource remote sensing images and social media data[J]. Remote Sensing, 2019, 11(22):2719. DOI:10.3390/rs11222719

[4]
Yang Y P, Yang D, Wang X F, et al. Testing accuracy of land cover classification algorithms in the Qilian Mountains based on GEE cloud platform[J]. Remote Sensing, 2021, 13(24):5064. DOI:10.3390/rs13245064

[5]
Wang C Y, Shao F J, Zhang Z M, et al. Mining the features of spatial adjacency relationships to improve the classification of high resolution remote sensing images based on complex network[J]. Applied Soft Computing, 2021, 102:107089. DOI:10.1016/j.asoc.2021.107089

[6]
孙显, 孟瑜, 刁文辉, 等. 智能遥感:AI赋能遥感技术[J]. 中国图象图形学报, 2022, 27(6):1799-1822.

[ Sun X, Meng Y, Diao W H, et al. The review of AI-based intelligent remote sensing capabilities[J]. Journal of Image and Graphics, 2022, 27(6):1799-1822. ] DOI:10.11834/jig.220161

[7]
邹同元, 丁火平, 王玮哲, 等. 天基遥感大数据人工智能应用探讨[J]. 卫星应用, 2019(6):38-44.

[ Zou T Y, Ding H P, Wang W Z, et al. Discussion on the application of artificial intelligence in space-based remote sensing big data[J]. Satellite Application, 2019(6):38-44. ] DOI:10.3969/j.issn.1674-9030.2019.06.012

[8]
刘春娟, 辛钰强, 吴小所, 等. 双注意力引导的U-Net++遥感图像语义分割模型[J/OL]. 北京航空航天大学学报, 2024,1-13[2024-12-14].

[ Liu C J, Xin Y Q, Wu X S, et al. Semantic segmentation model for remote sensing images based on nested U-Net guided by dual attention[J/OL]. Journal of Beijing University of Aeronautics and Astronautics, 2024,1-13[2024-12-14]. ] DOI:10.13700/j.bh.1001-5965.2024.0122

[9]
Liu Y T, Gao K, Wang H, et al. A Transformer-based multi-modal fusion network for semantic segmentation of high-resolution remote sensing imagery[J]. International Journal of Applied Earth Observation and Geoinformation, 2024, 133:104083. DOI:10.1016/j.jag.2024.104083

[10]
南国君, 王敏, 都海波, 等. 基于改进Deeplabv3+模型的遥感影像地物语义分割方法研究[J/OL]. 控制与决策, 2024,1-9[2024-12-14].

[ Nan G J, Wang M, Du H B, et al. The research on semantic segmentation of remote sensing image about ground objects based on improved Deeplabv3+ model[J/OL]. Control and Decision, 2024,1-9[2024-12-14]. ] DOI:10.13195/j.kzyjc.2024.0193

[11]
Zhao S J, Chen H, Zhang X L, et al. RS-mamba for large remote sensing image dense prediction[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024, 62:5633314. DOI:10.1109/TGRS.2024.3425540

[12]
Zhou Z H, Feng J. Deep forest[J]. National Science Review, 2019, 6(1):74-86. DOI:10.1093/nsr/nwy108

[13]
Mendel J, John R. Type-2 fuzzy sets made simple[J]. IEEE Transactions on Fuzzy Systems, 2002, 10(2):117-127. DOI:10.1109/91.995115

[14]
Mittal K, Jain A, Vaisla K S, et al. A comprehensive review on type 2 fuzzy logic applications: Past, present and future[J]. Engineering Applications of Artificial Intelligence, 2020, 95:103916. DOI:10.1016/j.engappai.2020.103916

[15]
Xu J D, Feng G Z, Zhao T Y, et al. Remote sensing image classification based on semi-supervised adaptive interval type-2 fuzzy c-means algorithm[J]. Computers & Geosciences, 2019, 131:132-143. DOI:10.1016/j.cageo.2019.06.005

[16]
Chen Y J, Cheng N, Cai M, et al. A spatially constrained asymmetric Gaussian mixture model for image segmentation[J]. Information Sciences, 2021, 575:41-65. DOI:10.1016/j.ins.2021.06.034

[17]
Zeng J, Xie L, Liu Z Q. Type-2 fuzzy Gaussian mixture models[J]. Pattern Recognition, 2008, 41(12):3636-3643. DOI:10.1016/j.patcog.2008.06.006

[18]
Wang C H, Cheng C S, Lee T T. Dynamical optimal training for interval type-2 fuzzy neural network (T2FNN)[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2004, 34(3):1462-1477. DOI:10.1109/TSMCB.2004.825927

[19]
Castro J R, Castillo O, Melin P, et al. A hybrid learning algorithm for a class of interval type-2 fuzzy neural networks[J]. Information Sciences, 2009, 179(13):2175-2193. DOI:10.1016/j.ins.2008.10.016

[20]
Abiyev R, Idoko J B, Altıparmak H, et al. Fetal health state detection using interval type-2 fuzzy neural networks[J]. Diagnostics, 2023, 13(10):1690. DOI:10.3390/diagnostics13101690

[21]
Lin C J, Jhang J Y, Chen S H, et al. Using an interval type-2 fuzzy neural network and tool chips for flank wear prediction[J]. IEEE Access, 2020, 8:122626-122640. DOI:10.1109/ACCESS.2020.3006849

[22]
Wang C Y, Xu A G, Li X L. Supervised classification high-resolution remote-sensing image based on interval type-2 fuzzy membership function[J]. Remote Sensing, 2018, 10(5):710. DOI:10.3390/rs10050710

[23]
王春艳, 金鹏, 桂琪皓. 区间二型模糊神经网络遥感图像分割方法[J]. 测绘科学, 2024, 49(5):84-98.

[ Wang C Y, Jin P, Gui Q H. Interval type-2 fuzzy neural network for remote sensing image segmentation[J]. Science of Surveying and Mapping, 2024, 49(5):84-98. ] DOI:10.16251/j.cnki.1009-2307.2024.05.009

[24]
Shao Z F, Yang K, Zhou W X. Performance evaluation of single-label and multi-label remote sensing image retrieval using a dense labeling dataset[J]. Remote Sensing, 2018, 10(6):964. DOI:10.3390/rs10060964

[25]
Shao Z F, Zhou W X, Deng X Q, et al. Multilabel remote sensing image retrieval based on fully convolutional network[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13:318-328. DOI:10.1109/JSTARS.2019.2961634

[26]
袁立, 袁吉收, 张德政. 基于DeepLab-v3+的遥感影像分类[J]. 激光与光电子学进展, 2019, 56(15):236-243.

[ Yuan L, Yuan J S, Zhang D Z. Remote sensing image classification based on DeepLab-v3+[J]. Laser & Optoelectronics Progress, 2019, 56(15):236-243. ] DOI:10.3788/LOP56.152801

文章导航

/