方法 | 核心策略 |
---|---|
FC-EF [ | 基于编码-解码器架构,直接将双时相影像叠加作为网络输入 |
FC-Siam-Conc [ | 引入孪生编码器结构分别提取双时相特征,通过级联方式实现特征融合 |
FC-Siam-Diff[ | 与FC-Siam-Conc模型不同,通过特征差值实现特征融合以捕捉变化信息 |
UNet++_MSOF[ | 输入双时相叠加影像,利用密集连接解码器捕捉多尺度信息,同时采用多尺度融合策略,将不同语义层次变化图结合起来以生成高精度变化图 |
DTCDSCN(Dual-Task Constrained Deep Siamese Convolutional Network) [ | 由1个变化检测网络和2个语义分割网络组成,通过引入双重注意力模块对通道和空间位置间相互依赖关系建模以提高特征表达能力 |
STANet(Spatial-Temporal Attention Neural Network)[ | 模型基于孪生编码器架构,在解码器中引入自注意力机制来捕捉空间和时间之间的依赖关系,并利用度量学习模块生成变化图 |
DSIFN (Deeply Supervised Fusion Network) [ | 模型基于孪生编码器架构,在解码器中引入空间和通道联合注意力模块增强特征表达,并利用深监督模块改善变化检测效果 |
BIT(Bitemporal Image Transformer) [ | 模型基于孪生编码器架构,在编码器末端引入语义Transformer模块增强特征表达,并利用简单卷积解码器生成变化图 |
ICIFNe(Intra-Scale Cross-Interaction and Inter-Scale Feature Fusion Network)t[ | 在编码部分同时使用孪生卷积编码器和孪生Transformer编码器,并利用尺度内和尺度间融合策略实现多尺度特征增强 |
VcT(Visual Change Transformer) [ | 利用ResNet18网络提取深度特征,并引入RTM(Reliable Token Mining) Transformer模块增强深度特征表达,最后利用CNN解码器生成变化图 |
PRNet(Progressive Refinement Network)[ | 采用结合局部细节增强的多尺度卷积网络提取深度特征,并利用基于图结构表示和Transformer的语义增强模块和自增强模块渐进优化深度特征表达 |
本文方法 | 利用引入非对称部分双卷积的孪生编码器架构提取多尺度差异特征,并在解码阶段采用多尺度特征注意力模块优化深浅层特征融合 |