Lightweight Research on Ship Target Detection in Large-scale SAR Images

  • ZHANG Yao , 1 ,
  • ZHANG Yan , 1 ,
  • WANG Tao 1, 2 ,
  • WANG Buyun 1
Expand
  • 1. Information Engineering University, Zhengzhou 450001, China
  • 2. Key Laboratory of Spatiotemporal Perception and Intelligent Processing Ministry of Natural Resource, Zhengzhou 450001, China
*ZHNAG Yan, E-mail:

Received date: 2024-10-15

  Revised date: 2024-11-28

  Online published: 2025-01-23

Supported by

Equipment Comprehensive Research Scientific Project(a8203)

Abstract

[Objectives] Ship detection using Synthetic Aperture Radar (SAR) images has gained widespread recognition and application across various fields, including marine search and rescue, port reconnaissance, and territorial sea defense. Nevertheless, with the rapid advancement of on-orbit intelligent processing technologies, higher demands have emerged for real-time detection of ship targets in spaceborne SAR images. [Methods] To address challenges such as the diverse scales of ship targets in current SAR images, the complex background of shore-based vessels, and the limited hardware resources of various remote sensing platforms, this paper presents a lightweight SAR image ship detection model, LWM-YOLO. Firstly, we propose a Lightweight Backbone Network (LWCA) designed specifically for SAR image processing. The LWCA integrates an optimized backbone network with an attention mechanism, effectively reducing the model's complexity and parameter size while maintaining high performance and lowering computational demands. Secondly, to tackle the issue of diverse target scales in SAR images, we have constructed a lightweight feature fusion module, termed LGS-FPN. This module enhances the extraction of detailed information on ship targets in SAR images by efficiently fusing features from different scales, improving detection performance for ship targets of various sizes. Furthermore, the module minimizes computational complexity, ensuring that the model can operate smoothly without significant resource consumption. In addition to addressing the scale issue, we have also focused on optimizing localization accuracy. We introduce a detection architecture based on the MPD-Head, which leverages the strengths of the MPD-Head to improve detection performance for small ship targets in complex environments. Finally, we validate the proposed algorithm through comparative experiments with mainstream methods on the LS-SSDD and SSDD ship detection datasets. [Results] The results demonstrate that our algorithm achieved mean Average Precision (mAP) values of 74.7% and 97.3% on the respective datasets, representing improvements of 1.5 and 1.0 percentage points over the baseline model. Additionally, the parameter size of our model was reduced to 36% of the baseline model, and computational complexity decreased to 80%. [Conclusions] Compared to other mainstream algorithms, the proposed method demonstrates not only higher accuracy but also significant advantages in detection speed. These findings can provide robust support for intelligent target detection, space-based in-orbit applications, and related fields.

Cite this article

ZHANG Yao , ZHANG Yan , WANG Tao , WANG Buyun . Lightweight Research on Ship Target Detection in Large-scale SAR Images[J]. Journal of Geo-information Science, 2025 , 27(1) : 256 -270 . DOI: 10.12082/dqxxkx.2025.240574

1 引言

随着遥感技术的快速发展,合成孔径雷达(Synthetic Aperture Radar, SAR)成像技术被广泛应用于环境监测、沉船救援、漏油检测、海上舰船控制等方面[1-4]。其中,目标检测算法能自动对SAR影像中的舰船目标定位与分类,从而在舰船目标检测中扮演着至关重要的角色。然而,传统的舰船目标检测算法大多针对特定场景[5-7],检测过程高度依赖于预先定义的分布或人工设计的特征,致使算法的鲁棒性较低,泛化性差。
近年来,深度学习技术以其强大的特征提取能力,在目标检测[8-12]领域取得了显著进展。根据是否需要预选框,可以将这些算法分为两大类:一类是两阶段目标检测算法,该算法先生成目标预选框,对待检测目标进行定位,再进行样本分类,这类算法主要包括Faster R-CNN[13]、R-CNN[14]、Mask R-CNN[15]等。但因其计算复杂度较高、效率较低致使其不满足舰船目标检测的实时性需求。另一类则是一阶段目标检测算法,该算法省去生成目标预选框的步骤,直接通过回归方式预测目标位置和类别,从而在保持较高检测精度的同时,显著提升了检测效率,其代表算法有SSD[16]和YOLO系列算法[17-20]等。
尽管基于深度学习的通用目标检测在自然影像上取得了很好的效果,但在将其直接应用于SAR影像舰船目标检测上时却面临许多挑战,其中包括: ① 小目标检测困难。相较于光学影像,SAR影像中的小型舰船在广阔的海域背景中缺乏显著的纹理和形状特征,使得传统的基于特征的检测方法难以有效区分。因此,开发能够捕捉微弱信号并有效提取小目标特征的深度学习模型成为当前研究的重要方向; ② 复杂背景干扰。SAR影像不仅包含海洋表面,还可能包含陆地、岛屿等多种地形地貌,这些复杂多变的背景信息往往与目标舰船产生混淆,增加了检测算法的误报率和漏检率。 ③ 模型部署困难。SAR影像虽提供了丰富的信息,但对检测算法提出了更高要求。传统检测模型因追求精度,导致模型参数量大,部署困难。尤其是在SAR成像系统易受噪声影响,且聚焦小目标识别领域,实现高性能模型的轻量化和易部署性显得至关重要。
针对这些问题不少国内外学者进行了大量的研究。陈丁等[21]提出一种将卷积神经网络(CNN)和混合波尔兹曼机(HRBM)相结合的遥感影像目标检测方法,提升了对小目标的检测精度。苏娟等[22]在SSD目标检测算法的基础上,通过迁移学习、浅层特征增强和数据增广等方法,减少了SAR影像小目标舰船的漏检和误报的问题。贾晓雅等[23]提出了一种基于YOLO框架的无锚框SAR图像舰船目标检测方法,提高了舰船目标检测的精度,降低了虚警率。高鹏飞等[24]通过融合多元稀疏特征提取模块和阶层深度特征融合模块,提出了一种高精度的目标检测算法。杨金鹏等[25]提出了一种改进YOLOv5的遥感和SAR图像舰船目标检测算法,其通过替换金字塔模块、引入注意力模块、添加小尺度特征增强模块方法提高检测精度。薛远亮等[26]提出一种基于融合注意力机制与改进的SSD算法的目标检测方法,提高了复杂背景下舰船目标检测的鲁棒性、辨认能力和抗干扰能力。Chen等[27]提出了一种集成注意力机制的舰船检测网络,有效提升了复杂场景下的舰船定位精度。
然而,这些方法没有充分考虑模型的参数量问题,很难部署到嵌入式设备。因此,很多研究提出了轻型SAR目标检测算法。李健伟等[28]以SSD算法为基础,通过融合多层特征、设计损失函数和集成方位估计模块等方法提出了一种快速的SAR图像目标检测算法。Zhang等[29]提出一种深度方向可分离卷积神经网络(DS-CNN),以实现高速SAR舰船检测,但却因传统卷积层降低了检测速度。Mao 等[30]通过融合简化的U-Net和无锚探测框架,提出了一种轻型的SAR舰船探测器,但牺牲了部分检测精度。值得注意的是,上述研究在追求轻量化设计以提高算法运行效率的同时,均未充分考虑到小尺寸舰船目标在SAR图像中因分辨率低、特征信息弱而带来的检测难题,这在一定程度上限制了这些轻量级算法在实际应用中的广泛性和准确性。
基于上述研究分析,为检测复杂背景下的大场景SAR影像小尺寸舰船目标,本文提出了一种轻量化的算法LWM-YOLO。首先,通过优化骨干网络结构,提出了LWCA骨干网络,成功降低了模型的参数量和计算复杂度。其次,创新特征融合方式,提出了LGS-FPN特征融合策略,进一步减少了模型的存储空间占用并提升了对小目标的检测精度。最后,为有效捕捉微小舰船目标的位置变化、应对SAR影像中的噪声干扰和标注质量波动,减少损失函数的振荡,加速模型收敛,设计了基于MPD-Head的检测架构。

2 研究方法

2.1 技术路线

本文以YOLOv8为基准模型,提出的LWM-YOLO算法系统架构图如图1所示。首先,在特征提取阶段,对骨干网络进行轻量化处理,裁剪冗余卷积层,优化通道配置以及集成先进的注意力机制模块,提出了LWCA骨干网络,旨在增强模型对舰船目标特征的捕捉能力,提高目标在复杂背景中的显著性,在降低模型参数量的同时保持检测精度。其次,在特征融合阶段,针对大场景SAR影像小目标识别特点设计轻型特征融合模块,提出了LGS-FPN特征融合策略,采用多个特征金字塔进行特征融合,从而保留更多细节信息,减少计算复杂度。最后,在预测推理阶段,针对复杂背景下的舰船目标的检测任务,设计了一个基于MPD-Head的检测架构,以提升舰船目标边界框的精准度,减少检测框与真实舰船位置的偏差。通过这些策略的综合应用,不仅能降低模型体量,而且能提升算法在大场景舰船目标检测任务中的性能,确保在广袤的海域环境中能够高效且准确地识别出舰船目标。
图1 LWM-YOLO的整体框架

Fig. 1 The overall framework of LWM-YOLO

2.2 LWCA骨干网络

SAR影像技术在舰船目标检测领域日益重要,但将这一先进技术有效融入移动作业平台仍面临物理空间有限、硬件资源紧张及复杂天气条件下的高效运行困难等多种挑战。为此,设计一种既轻量化又具备高实时性的SAR图像舰船目标检测算法成为关键。
在基准模型架构基础上,本文提出了LWCA骨干网络,旨在以极低的计算复杂度实现高精度的目标检测任务。其核心设计包含两大关键要素: ① 构建了一个高效的轻量化网络结构,有效削减了模型参数与计算量; ② 集成了先进的注意力机制,以增强模型对舰船目标细微特征的捕捉能力,同时抑制背景噪声的干扰。其结构如图2所示。
图2 LWCA结构

Fig. 2 Structure of LWCA

2.2.1 轻量化骨干网络

鉴于SAR影像中舰船目标呈现的像素稀疏性及细节特征的低显著性,传统深层卷积神经网络(Convolutional Neural Networks,CNN)[31]架构在特征提取过程中常面临细节丢失与背景过度处理的困境[32],进而引发计算成本高昂及模型参数冗余等问题。为此,基于基准目标检测模型,实施了定制化的骨干网络优化策略。具体而言,通过对基础骨干网络的重构与优化,实现了对背景区域无效特征提取的有效抑制,从而显著降低了模型的计算复杂度。
在经典的CNN架构中,不同层次的卷积层承担着不同的特征提取任务。较早的层(如卷积层的前几层)主要负责提取输入图像的低级特征,如边缘、纹理等;而较后的卷积层则逐渐聚焦于提取更高级、更抽象的特征,用于分类或回归等任务。基础模型骨干网络特征图如图3所示,不难发现随着层数的加深损失的信息越多,这一损失现象主要体现在较高层级(如第7、8、9层)的特征图上。本文研究聚焦于尺度较小的像素级目标,而这些高层级的特征图在捕捉和表示小目标特征方面显得较为困难,难以有效地保留和传递小目标的精细特征信息。因此,在解决SAR影像中小尺寸舰船目标检测的问题时,本文采取策略性卷积层优化手段,即有针对性地优化非关键卷积层,能够显著减少背景区域的冗余特征提取,从而有效缩减模型的计算负担。具体而言,本文首先通过深入分析骨干网络模型的特征传递路径,识别出信息损失较为严重的卷积层。在基础模型中,第7层和第8层为信息衰减最为显著的层,这2层在特征提取过程中导致了大量有用信息的丢失,且对后续检测任务的贡献度相对较低。因此,本文决定在模型中剔除这两层,以减少不必要的计算开销和特征冗余。同时,针对骨干网络参数不匹配的问题,进行了更为细致的参数优化。特别是针对通道数这一关键参数,根据各层特征的重要性和关联性,进行了合理的调整。通过增加关键层的通道数以增强特征表达能力,同时减少非关键层的通道数以降低计算复杂度,实现了网络参数的优化配置。此外,在优化过程中,还采用了其他辅助手段,如引入正则化项以抑制过拟合,以及使用学习率衰减策略来稳定训练过程。这些措施共同确保了模型在优化后的稳定性和性能。由于这些经过优化的卷积层并非舰船目标检测任务中的核心功能单元,因此,在保持模型整体性能相对稳定的前提下,该优化措施能够大幅度降低模型参数规模,实现计算效率与性能之间的更优平衡。
图3 基础模型骨干网络各层特征图

Fig. 3 Feature maps of each layer in the backbone of the basic model

2.2.2 注意力机制模块

在SAR影像中,舰船目标的检测面临环境杂波干扰问题,导致目标与背景之间区分度显著降低。而坐标注意力机制模块(Coordinate Attention, CA)[33]能有效弱化背景噪声,突出舰船目标特征。此外,得益于其轻量级的设计,CA注意力模块可以较好的平衡检测效率与识别精度的双重需求,从而实现对舰船目标更为精准且高效的识别。因此,本文决定引入CA注意力模块以提升检测性能。
该模块融合了坐标信息嵌入与注意力生成二大模块。此机制首先通过沿X方向与Y方向分别应用平均池化技术,实现对特征图空间维度的精准编码。这一过程不仅深入考虑了特征图中每个位置的关键信息,还巧妙地保留了特征间的长距离依赖关系,增强了模型对全局上下文的理解能力。其公式如下:
z c h h = 1 W 0 i W x c h ,   i
z c w w = 1 H 0 j H x c j ,   w
式中: zch(h)、zcw(w)分别表示第c通道在高度h和宽度w处的输出; WH分别表示宽和高; xc(h, i)、xc(j, w)分别表示第c通道在高度h和宽度w处的特征点的值。
随后,在注意力生成阶段,将2个方向上的池化结果进行高效拼接,融合为包含全面空间信息的特征向量。接着,利用卷积层(Conv2d)进行特征降维,以减少计算复杂度并提取关键特征,随后通过批归一化(BN)操作稳定训练过程,防止内部协变量偏移。紧接着,引入非线性激活函数以引入非线性因素,增强模型的表达能力,生成中间特征。其公式如下:
f = δ F 1 ( [ z h , z w ] )
式中: zhzw分别表示式(1)、式(2)产生的特征图; f是中间特征图;δ是非线性激活函数; F1是一个 1×1卷积转换函数。
最后,通过切分操作,将中间特征图f沿空间维度分解为2个独立的空间注意力权重图f hf w。这些权重图随后通过一维卷积进行微调,并应用 Sigmoid激活函数以确保权重值处于0~1之间,从而生成最终的注意力权重。其公式如下:
g h = σ F h f h
g w = σ F w f w
式中: ghgw分别表示在高度h和宽度w处输出的注意力权重图; σ表示Sigmoid激活函数;FhFw是 2个1×1的卷积转换函数。
这些权重被巧妙地应用于原始特征图上,通过加权求和的方式实现特征的重标定,最终输出融合了坐标注意力机制增强特征的结果。这一过程显著提升了模型对复杂场景中关键目标的识别与定位能力。CA的输出公式可以写成:
y c i ,   j = x c i ,   j × g c h i × g c w j
式中: yc(i, j)表示坐标注意模块的输出; xc(i, j)表示第c通道在ij处的特征点的值; g c h i g c w j分别表示第c通道高度h和宽度wij处输出的值。

2.3 LGS-FPN特征融合策略

针对大场景SAR影像中小尺寸舰船目标检测的挑战,亟需进一步优化特征融合机制。本文提出了LGS-FPN(Localized and Global-aware Selective Feature Pyramid Network),旨在使用更为高效的空间与语义特征集成方法,以充分利用浅层特征中的细节信息和深层特征中的语义信息,从而显著提升检测模型对小目标的识别精度。
本文所提出的LGS-FPN创造性地融入了基于全局上下文与局部细节的自适应特征筛选机制(Localized and Global-aware Selective Feature, LGS)。此机制通过高级算法智能评估各尺度特征图的信息丰富度与判别力,实现了动态且精准的特征优选与融合策略。该机制不仅确保了特征融合过程能够高效聚焦于最具代表性的特征集,还显著增强了多尺度目标检测的精确度,有效解决了传统方法在多尺度目标检测中面临的尺度敏感性与信息冗余问题。此外,LGS-FPN的设计还兼顾了计算效率的优化,通过减少不必要的特征处理与融合操作,实现了在保持高性能的同时降低计算成本,这对于处理大规模或高分辨率图像数据尤其重要。LGS的结构如图4所示。
图4 LGS的结构

Fig. 4 Structure of LGS

LGS的核心由二大互补性模块构成:全局感知模块与局部细化模块。首先,全局感知模块巧妙地运用全局平均池化等策略,对特征图的全局统计特性进行深入挖掘,生成反映全局上下文重要性的权重图。这一过程利用了特征图的全局分布信息,为后续的特征筛选提供了宏观视角。其次,局部细化模块则专注于特征图的局部细节,通过一系列保持空间分辨率的卷积操作,在不丢失空间维度信息的前提下,对特征图进行精细化变换,从而捕获并强调局部上下文中的关键特征。这一模块确保了特征表示的局部敏感性与细节丰富性。最终, LGS通过融合机制,将全局感知模块与局部细化模块生成的权重图进行有效整合,共同作用于输入特征图。这一过程不仅实现了全局上下文与局部细节的有机结合,还促进了特征图中有效信息的精准聚焦与强化,从而显著提升了特征表示的质量,为后续的多尺度目标检测任务奠定了坚实的基础。
LGS-FPN的结构图如图5所示,其主要包含特征选择和特征融合2个部分。最初,多尺度特征图被送入特征选择模块,该模块执行了一个精细化的筛选流程,基于全局与局部信息的综合评估,动态地识别并保留各尺度特征图中最具判别力的特征成分,对得到的结果使用Sigmoid激活函数后进行融合,从而得到每个通道权重。这一过程不仅有效过滤了冗余信息,还确保了后续处理步骤中信息的质量与针对性。
图5 LGS-FPN的结构

Fig. 5 Structure of LGS-FPN

随后,通过特征增强与融合机制,LGS-FPN将筛选后的高层特征(富含丰富的语义信息)与低层特征(保留有精细的空间细节)进行协同集成。首先给定一个高层特征fH和低层特征fL
f H R C × H × W
f L R C × H 1 × W 1
式中: CHW分别表示通道数、高度和宽度。
然后,对高层特征使用转置卷积进行扩展,使用双线性插值来保持与低层特征的维度一致。
f B - T - H = B L ( T ( f H ) )
式中: FB-T-H表示使用转置卷积和双线性插值后的特征图; BL表示双线性插值; T表示转置卷积。
最后,分别对高、低层特征使用LGS模块得到相应注意力权重,将高层特征对低层特征进行筛选后融合,以增强模型的特征表示。
f o u t = L G S ( f L ) × L G S ( f B - T - H ) + f B - T - H
式中:LGS表示使用LGS特征选择模块; fout表示输出的特征图。
这一融合策略充分利用了不同层级特征图之间的互补优势,生成了既包含深层语义理解又保留有精细空间结构的复合特征表示。这种富含多层次信息的特征映射,对于SAR影像中微小且复杂的细微特征检测尤为关键,因为它能够显著提升模型在复杂背景与低信噪比条件下的检测能力,增强模型对于目标细节的捕捉与识别精度。

2.4 基于MPD-Head的检测架构

为了进一步提升检测精度,特别是针对复杂背景下的微小舰船目标,本文提出了基于MPD-Head的检测架构。该架构通过并行处理的分类与回归分支,结合高效的特征降维与深度卷积技术,并引入MPDIoU(Mean Partial Distance Intersection over Union)[34]优化定位精度,显著提升了复杂环境中微小舰船目标的检测效果。其结构如图6所示。
图6 MPD-Head的结构

Fig. 6 Structure of MPD-Head

最初,采用一个紧凑的1×1卷积降低通道维度,从而在不损失关键信息的前提下,优化后续处理的数据规模与计算效率。紧接着,架构并行展开为两条独立的处理流:分类分支与回归分支,二者均通过堆叠2层3×3卷积和一层1×1卷积来进一步提取和增强特征表达能力。在回归分支中,本文引入了MPDIoU。其不仅继承了IoU评估边界框重叠度的直观性,还通过直接计算预测与真实边界框关键点(如左上角和右下角)的Partial Distance(PD),全面评估了边界框间的相似性与差异。这一设计使得MPD-Head能够更精准地捕捉微小舰船目标的位置变化,有效应对SAR影像中的噪声干扰和标注质量波动,减少损失函数的振荡,加速模型收敛,显著提升大场景SAR影像中舰船目标的识别精度和鲁棒性,其详细过程如下:
(1)计算两边界框之间的loU值如式(11)所示。
I o U = A g t B p r d A g t B p r d
式中:Agt表示真实边界框的面积;Bprd表示预测边界框的面积。
(2)计算2个框的PD值,得到结果如式(12)、式(13)所示。
d 1 2 = ( x 1 p r d - x 1 g t ) 2 + ( y 1 p r d - y 1 g t ) 2
d 2 2 = ( x 2 p r d - x 2 g t ) 2 + ( y 2 p r d - y 2 g t ) 2
式中: ( x 1 g t ,   y 1 g t ) ( x 2 g t ,   y 2 g t )分别表示Agt的左上角和右下角的坐标; ( x 1 p r d ,   y 1 p r d ) ( x 2 p r d ,   y 2 p r d )分别表示Bprd的左上角和右下角的坐标。
(3)用loU值减去PD值除以对角线平方的值,得到MPDIoU值,如式(14)所示。
M P D I o U = I o U - d 1 2 w 2 + h 2 - d 2 2 w 2 + h 2
式中: wh分别表示真实框和预测框最小外接矩形的宽和高。

3 实验结果与分析

3.1 实验数据及环境

实验所采用的数据集为大场景小目标SAR舰船检测数据集(Large-Scale SAR Ship Detection Dataset-v1.0,LSSSDD-v1.0)[35],和SAR舰船检测数据集(SAR Ship Detection Dataset, SSDD[36])数据集。LS-SSDD数据集依托欧空局Sentinel-1卫星数据,打造了一个面向大规模海洋环境监测、紧密贴合实际工程需求的舰船目标检测数据集。该数据集核心源于15幅高分辨率、宽覆盖范围的原始星载SAR图像,通过精细处理,展现了VV(垂直发射-垂直接收)与VH(垂直发射-水平接收)双极化模式的独特优势,同时利用了IW(干涉宽幅)成像模式,确保了数据在广袤海洋区域的高精度覆盖与细节保留。由于GPU显存的限制,本文采用由15幅原始图像切片形成的9 000个800像素×800像素的图像来进行网络的训练与测试,并将所得图像数据集按2:1的比例划分为训练验证集和测试集。SSDD数据集收录了共计1 160幅图像,涵盖了2 456个舰船实例,平均每幅图像包含约2.12个舰船目标。该数据集为相关检测算法的训练与验证提供了一个统一且丰富的资源平台,本文将图像数据集按9:1的比例划分为训练验证集和测试集。本实验均是基于表1所示配置环境。
表1 环境配置

Tab. 1 Environment configuration

参数 配置
操作系统 Ubuntu22.04
GPU Geforce RTX 2060Ti 6 G
CPU AMD Ryzen 7 3700 X
内存 16 G
深度学习框架 Pytorch12.0
Python版本 3.8
GPU加速平台 CUDA11.4
此外,设置训练超参数Epochs为300,图像大小为800像素×800像素,Batch为16, Workers为8,在优化器的选择上,采用了随机梯度下降(SGD)方法,并设定了初始学习率为0.01。对于其他超参数,保持其默认值不变,以确保实验的稳定性和可重复性。

3.2 评价指标

在本实验中,所采用的检测精度评价指标主要有精确率(Precision, P)和召回率(Recall, R)以及平均精度值(mean Average Precision, mAP)。精确度和召回率的计算如式(15)、式(16)所示。
P r e c i s i o n = T P T P + F P
R e c a l l = T P T P + F N
式中:TP表示模型正确预测为正类的样本数; FN表示模型错误地将正类样本预测为负类的数量; FP表示模型错误地将负类样本预测为正类的数量。
平均精度值mAP表示检测模型在各个目标尺寸和类别上的平均精度,不仅考虑了精确度和召回率之间的权衡,还通过跨类别的平均化处理,提供了一个全面且统一的性能评分,特别适用于多类别目标检测任务。在计算上, mAP值是P-R曲线包围面积的平均值, mAP值的计算如式(17)、式(18)所示。
A P = 0 1 P ( R ) d R
m A P = 1 C j = 1 C A P j
式中:C为数据集中类别总数。模型的轻量化程度是衡量检测算法在计算效率、执行速度以及实际应用部署难度方面的一个重要指标,它直接关联到算法的实时处理能力和资源消耗。本实验主要通过3个评价指标来精确度量:浮点运算次数(Giga Floating-Point Operations Per Second,GFLOPs,),即每秒10亿次的浮点运算数,反映了模型的复杂度;帧率(FPS, Frames Per Second),是指算法每秒能够处理的图像帧数,是衡量算法实时性的直接标准;参数量(Params),指的是模型中包含的可训练参数的总数。

3.3 LWM-YOLO的性能评估

3.3.1 对比实验

为全面验证本文所提出算法相较于其他先进算法的优越性,本文进行了一系列对比实验,聚焦于检测精度与模型轻量化程度2个评价指标,并进一步细分为6个关键性能指标进行深度剖析。具体地,将本文算法与当前主流的检测算法(包括但不限于YOLOv9[37]、YOLOv10[38]、YOLOv11[39])进行了系统对比。
表2可以看出,本文算法在实际应用场景中展现出了更强的竞争力与适用性。具体而言,在LS-SSDD数据集实验中,尽管FreeAnchor的召回率最高,但是其精确率较差,且计算复杂度高,限制了其综合效能。相比之下,本文算法虽然在精确率上略低于YOLOv9t,计算复杂度稍高于YOLOv11n,同时召回率方面不及FreeAnchor,但在关键指标平均精度值上实现了最优表现,达到了0.747,这直接反映了算法在检测任务中的全面准确性。此外,本文算法在参数量上达到最低水平,显著降低了计算负担与存储需求,同时帧率则达到最高的152.4帧/秒,彰显了其高效的处理速度。这种在精度和速度之间的平衡,加之其较少的参数量需求,使得本文算法更容易部署与集成;进一步地,在针对SSDD数据集的实验中,尽管本文算法在精确率上低于YOLOv11n,但其在召回率、平均精度值、参数量等关键指标上均实现了全面领先。具体而言,本文算法取得了高达0.973的平均精度值,参数量也达到了1.07 M的最低水平。这充分证明了本文算法在复杂场景下的强大适应能力与综合性能优势。
表2 LWM-YOLO对比实验

Tab. 2 LWM-YOLO comparison experiments

数据集 网络模型 精确率 召回率 mAP FLOPs/G 参数量/M FPS/(帧/s)
LS-SSDD FreeAnchor[40] 0.553 0.777 0.710 127.82 36.33 11.47
DCN[41] 0.741 0.769 0.738 116.82 41.93 10.05
EfficientDet[42] 0.621 0.675 0.614 107.52 39.40 11.42
YOLOv8n 0.812 0.660 0.732 8.10 3.01 148.32
YOLOv9t 0.853 0.661 0.741 7.60 1.97 120.92
YOLOv10n 0.780 0.616 0.703 8.20 2.69 128.25
YOLOv11n 0.825 0.646 0.729 6.30 2.58 138.38
本文方法 0.837 0.672 0.747 6.50 1.07 152.40
SSDD PANET[43] 0.868 0.919 0.912 11.65
Grid R-CNN[44] 0.878 0.897 0.890 9.18
YOLOv8n 0.942 0.956 0.963 8.10 3.01 691.51
YOLOv9t 0.959 0.916 0.969 7.60 1.97 707.03
YOLOv10n 0.920 0.964 0.960 8.20 2.69 757.44
YOLOv11n 0.961 0.964 0.970 6.30 2.58 725.33
本文方法 0.941 0.965 0.973 6.50 1.07 729.90

注:加粗数值表示最优值。

实验结果表明,本文提出的算法相较于其基线版本以及其他主流目标检测网络,在LS-SSDD及SSDD上展现出了显著的性能提升。这一改进不仅体现在检测精度的提升上,还反映在模型轻量化与计算效率的优化上,从而实现了检测性能与易部署性之间的良好平衡。

3.3.2 消融实验

(1)LWM-YOLO有效性实验
为验证本文所提方法的有效性,在LS-SSDD数据集上进行了消融实验,实验结果如表3所示,其中“-L”表示使用LWCA骨干网络,“-LGS”使用LGS-FPN特征融合策略,“-M”表示MPD-Head。
表3 LWM-YOLO消融实验

Tab. 3 LWM-YOLO ablation experiment

网络模型 精确率 召回率 mAP FLOPs/G 参数量/M FPS/(帧/s)
YOLOv8n 0.812 0.660 0.732 8.1 3.01 148.32
YOLOv8n-M 0.833 0.644 0.729 8.1 3.01 146.92
YOLOv8n-LGS 0.823 0.669 0.743 7.1 2.03 149.23
YOLOv8n-L 0.824 0.654 0.727 7.5 2.23 152.28
YOLOv8n-L-LGS 0.819 0.667 0.738 6.5 1.07 152.81
YOLOv8n-L-LGS-M 0.837 0.672 0.747 6.5 1.07 152.40

注:加粗数值表示最优值。“-L”表示使用LWCA骨干网络;“-LGS”使用LGS-FPN特征融合策略;“-M”表示MPD-Head。

表3中可以看出,引入LWCA骨干网络后,尽管有效提升了计算效率,但检测精度有所下降。随后,通过将传统特征融合方法替换为LGS-FPN策略,显著增强了模型的检测性能,精准度达到0.819,召回率提升至0.667,且平均精度值高达0.738。表明LGS-FPN能够在复杂背景下高效地提取舰船目标特征。
最后,引入基于MPD-Head的检测架构,显著提升了目标检测算法性能评估的精确度。相较于基准的YOLOv8n算法,精确率、召回率、平均精度值分别实现了2.5%、1.2%、1.5%的增益。这一实验结果有力地支持了所提出算法框架在舰船目标检测任务中的有效性和先进性。
在模型轻量化设计层面,LWCA骨干网络的集成显著降低了模型的计算复杂度和参数量,从而促进了检测帧率的提升,确保了实时性需求下的高效性能。而LGS-FPN的应用更是将模型轻量化推向新高度,相较于基准模型,其计算复杂度降低至约80%,参数量大幅缩减至仅36%,同时检测帧率提升至152.4帧/s。这一系列改进不仅体现了LGS-FPN在轻量化设计方面的创新价值,也验证了其对于提升目标检测模型综合性能的重要贡献。
(2)LGS-FPN有效性实验
本实验设计的主旨在于深入探究YOLOv8模型与不同特征融合机制的性能差异。具体而言,构建了一组对比实验,将YOLOv8默认的路径聚合特征金字塔网络PAFPN[43]与当前较为高效的特征融合架构——混合尺度特征金字塔网络HS-FPN[45]进行集成,并系统性地评估了这些融合策略在YOLOv8框架下的性能表现,实验结果如表4所示。
表4 更换特征融合网络的实验结果

Tab. 4 Experimental results of altering the feature fusion network

网络模型 精确率 召回率 mAP FLOPs/G 参数量/M FPS/(帧/s)
YOLOv8n-PAFPN 0.812 0.66 0.732 8.1 3.01 148.32
YOLOv8n-HSFPN 0.813 0.649 0.728 6.9 1.93 148.07
YOLOv8n-LGSFPN 0.823 0.669 0.743 7.1 2.03 149.23

注:加粗数值表示最优值。

实验结果表明,在评估模型检测性能的维度上,新提出的LGS-FPN特征融合网络相较于传统的PAFPN和先进的HS-FPN,展现出了更高的检测精度,这一发现显著增强了目标检测任务的准确性。在模型轻量化与效率优化的考量下,采用HS-FPN作为特征融合策略时,虽然降低了一定的计算复杂度和模型参数量,但相较于PAFPN的检测精度有所降低。然而,当LGS-FPN被引入为特征融合网络时,其优越性在于不仅显著降低了运算的复杂度与模型参数量,使之低于PAFPN,还实现了帧率的提升,从而在保证检测精度的同时,大幅度优化了模型的运行效率与资源占用。综上所述,本文提出的LGS-FPN特征融合网络,作为一种创新的特征融合机制,有效地实现了检测精度的提升、运算复杂度的降低以及帧率的优化,为高效目标检测模型的构建提供了有力的技术支撑。

3.3.3 可视化分析

本文通过对比实验,验证了LWM-YOLO算法在舰船检测中的优越性,图7直观展示了LWM-YOLO相较于YOLOv8n、YOLOv9t、YOLOv10n及YOLOv11n等先进算法的显著优势。其中绿色框为真实标注的目标框,蓝色框为各算法的检测框,红色框标注为错检或漏检目标。具体而言,图7(a)为真实标注的基准图像,图7(b)图7(e)分别呈现了对比算法在复杂场景下的检测效果,图7(f)为LWM-YOLO算法在不同场景下的检测效果。
图7 LWM-YOLO在LS-SSDD测试集上的效果对比

Fig. 7 Performance of LWM-YOLO on the LS-SSDD test set

图7中第1、2和4列可以看出,在针对小目标检测过程中LWM-YOLO算法,漏检率和错检率更低,置信度更高。由第3列各检测算法效果对比可知,LWM-YOLO算法在近岸的复杂背景下能够检测到更多的目标,错检率相对于YOLOv8n有较大的提升。结果表明LWM-YOLO算法在远海近岸环境、多舰与单舰布局、以及不同尺寸舰船目标等多种复杂检测场景中,不仅大幅降低了漏检率与误检率,还显著提升了检测结果的置信度评估精度,展现出对各类舰船目标(无论尺寸大小、形状差异)的精准识别能力,从而实现了检测效果的整体提升,为舰船检测领域的技术进步提供了有力支撑。

3.4 讨论

本文提出了一种轻量级的SAR影像舰船检测算法,该算法在复杂环境下的SAR影像中展现出了对舰船目标的精准识别,实现了提高精度和压缩模型的有效结合。本文算法分别在LS-SSDD和SSDD数据集上进行训练和测试。这两个数据集涵盖了多种场景、不同尺度的舰船目标,有利于提高模型在复杂环境下的泛化能力。实验结果表明,本文提出的算法在两个数据集上均取得了优异的表现,并且在处理不同场景和不同尺度目标的检测任务时,也展现出了较高的准确性。与其他先进的算法相比,本文算法的平均精度值更高,同时模型所需的参数量更低,这充分证明了本文所提方法的有效性。
尽管本文算法在实验中取得了显著成效,但从精确率和召回率等评估指标来看,其性能仍有进一步提升的空间。在下一步研究工作中,加强对网络架构进行优化设计,引入不同场景的SAR数据集,同时探索将图像增强技术和斜框检测策略融入到SAR图像舰船目标检测中,从而进一步提升模型的鲁棒性和准确性。

4 结论

针对大场景SAR影像中舰船目标检测面临的高精度挑战及漏检、误检等问题,本文提出了一种深度优化的轻量化检测算法LWM-YOLO。该算法通过3项核心技术创新——LWCA骨干网络、LGS-FPN特征融合策略、以及基于MPD-Head的检测架构,并与EfficientDet、 YOLOv9、YOLOv10等网络进行对比。相较于基准模型,本文提出的算法参数量降低为原来的36%,运算复杂度降低为原来80%,mAP提高1.5%,证明了本文方法能够在保持低资源消耗的前提下,实现对舰船目标的精确、快速检测。同时,为验证LWM-YOLO算法的泛化能力,本文选择公开数据集SSDD进行验证,在与PANET、Grid R-CNN和YOLOv8n等网络的比较中,本文算法mAP达到了97.3%,相较于基础模型mAP提高1%,有效证明了其在不同数据集上的高效与准确性。通过实验对比,可以得出以下结论:
(1)本文提出的LWCA骨干网络,通过重构卷积层架构和优化通道配置策略,实现了模型体量精简和特征表达能力提升。在此基础上,融入的CA注意力模块不仅提升了检测效率还增强了模型对关键特征的捕捉能力,进一步优化检测精度,实现高效的舰船目标识别性能。
(2)本文提出的LGS-FPN特征融合网络,通过引入局部与全局信息增强的策略,有效提升了特征金字塔中不同尺度信息的融合效率与丰富性。该网络不仅增强了特征融合性能,还通过优化特征流动路径减少了不必要的计算冗余,从而在保持高检测精度的同时,降低了网络的整体运算复杂度,实现了性能与效率的双重提升。
(3)本文设计了基于MPD-Head的检测架构,该架构通过优化舰船目标边界框的定位精度,有效增强了目标检测的准确性。实验证明,该架构在复杂背景下对小目标的检测能力具有显著提升,为舰船目标检测领域的研究提供了新的思路和技术支持。
■ 本文图文责任编辑: 蒋树芳 黄光玉

利益冲突:Conflicts of Interest 所有作者声明不存在利益冲突。

All authors disclose no relevant conflicts of interest.

[1]
王桥. 中国环境遥感监测技术进展及若干前沿问题[J]. 遥感学报, 2021, 25(1):25-36.

[ Wang Q. Progress of environmental remote sensing monitoring technology in China and some related frontier issues[J]. National Remote Sensing Bulletin, 2021, 25(1):25-36. ] DOI:10.11834/jrs.20210572

[2]
Lin Z, Ji K F, Leng X G, et al. Squeeze and excitation rank faster R-CNN for ship detection in SAR images[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(5):751-755. DOI:10.1109/LGRS.2018.2882551

[3]
Xu X W, Zhang X L, Zhang T W. Multi-scale SAR ship classification with convolutional neural network[C]// 2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS. IEEE, 2021:4284-4287. DOI:10.1109/IGARSS47720.2021.9553116

[4]
Zhang T W, Zhang X L, Ke X. Quad-FPN: A novel quad feature pyramid network for SAR ship detection[J]. Remote Sensing, 2021, 13(14):2771. DOI:10.3390/rs13142771

[5]
Lang H T, Wu S W, Xu Y J. Ship classification in SAR images improved by AIS knowledge transfer[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(3):439-443. DOI:10.1109/LGRS.2018.2792683

[6]
Gao G, Gao S, He J, et al. Ship detection using compact polarimetric SAR based on the Notch filter[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(9):5380-5393. DOI:10.1109/TGRS.2018.2815582

[7]
Huo W B, Huang Y L, Pei J F, et al. Ship detection from ocean SAR image based on local contrast variance weighted information entropy[J]. Sensors, 2018, 18(4):1196. DOI:10.3390/s18041196

[8]
Cui Z Y, Li Q, Cao Z J, et al. Dense attention pyramid networks for multi-scale ship detection in SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(11):8983-8997. DOI:10.1109/TGRS.2019.2923988

[9]
He K M, Zhang X Y, Ren S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9):1904-1916. DOI:10.1109/TPAMI.2015.2389824

[10]
Shin H C, Roth H R, Gao M C, et al. Deep convolutional neural networks for computer-aided detection: CNN architectures, dataset characteristics and transfer learning[J]. IEEE Transactions on Medical Imaging, 2016, 35(5):1285-1298. DOI:10.1109/TMI.2016.2528162

[11]
Chen C Y, Liu M Y, Tuzel O, et al. R-CNN for small object detection[M]// Lecture Notes in Computer Science. Cham: Springer International Publishing, 2017:214-230. DOI:10.1007/978-3-319-54193-8_14

[12]
程传祥, 金飞, 林雨准, 等. 应用多尺度融合策略和改进YOLOV5的道路病害无人机检测[J]. 地球信息科学学报, 2024, 26(8):1991-2007.

[ Cheng C X, Jin F, Lin Y Z, et al. Road damage detection in large UAV images using a multiscale fusion strategy and improved YOLOV5[J]. Journal of Geo-Information Science, 2024, 26(8):1991-2007. ] DOI:10.12082/dqxxkx.2024.240147

[13]
Ren S Q, He K M, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6):1137-1149. DOI:10.1109/TPAMI.2016.2577031

[14]
Le H, Nguyen T, Le V, et al. Guided Anchoring Cascade R-CNN: An intensive improvement of R-CNN in Vietnamese Document Detection[C]// 2021 8th NAFOSTED Conference on Information and Computer Science (NICS). IEEE, 2021:188-193. DOI:10.1109/NICS54270.2021.9701510

[15]
He K, Gkioxari G, Dollar P, et al. Mask R-CNN[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2):386-397. DOI:10.1109/ TPAMI.2018.2844175

[16]
Liu W, Anguelov D, Erhan D, et al. SSD: single shot MultiBox detector[M]// Lecture Notes in Computer Science. Cham: Springer International Publishing, 2016:21-37. DOI:10.1007/978-3-319-46448-0_2

[17]
Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016:779-788. DOI:10.1109/CVPR.2016.91

[18]
Redmon J, Farhadi A. YOLO9000:Better, faster, stronger[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2017:7263-7271. DOI:10.1109/CVPR.2017.690

[19]
Redmon J, Farhadi A. YOLOv3: An incremental improvement[J]. arXiv e-prints, 2018. DOI:10.48550/arXiv.1804.02767

[20]
Bochkovskiy A, Wang C Y, Liao H. YOLOv4: Optimal speed and accuracy of object detection[J]. 2020. DOI:10.48550/arXiv.2004.10934

[21]
陈丁, 万刚, 李科. 多层特征与上下文信息相结合的光学遥感影像目标检测[J]. 测绘学报, 2019, 48(10):1275-1284.

[ Chen D, Wan G, Li K. Object detection in optical remote sensing images based on combination of multi-layer feature and context information[J]. Acta Geodaetica et Cartographica Sinica, 2019, 48(10):1275-1284. ] DOI:10.11947/j.AGCS.2019.20180431

[22]
苏娟, 杨龙, 黄华, 等. 用于SAR图像小目标舰船检测的改进SSD算法[J]. 系统工程与电子技术, 2020, 42(5):1026-1034.

[ Su J, Yang L, Huang H, et al. Improved SSD algorithm for small-sized SAR ship detection[J]. Systems Engineering and Electronics, 2020, 42(5):1026-1034. ] DOI:10.3969/j.issn.1001-506X.2020.05.08

[23]
贾晓雅, 汪洪桥, 杨亚聃, 等. 基于YOLO框架的无锚框SAR图像舰船目标检测[J]. 系统工程与电子技术, 2022, 44(12):3703-3709.

[ Jia X Y, Wang H Q, Yang Y D, et al. Anchor free SAR image ship target detection method based on the YOLO framework[J]. Systems Engineering and Electronics, 2022, 44(12):3703-3709. ] DOI:10.12305/j.issn.1001-506X.2022.12.14

[24]
高鹏飞, 曹雪峰, 李科, 等. 融合多元稀疏特征与阶层深度特征的遥感影像目标检测[J]. 地球信息科学学报, 2023, 25(3):638-653.

[ Gao P F, Cao X F, Li K, et al. Object detection in remote sensing images by fusing multi-neuron sparse features and hierarchical depth features[J]. Journal of Geo-Information Science, 2023, 25(3):638-653. ] DOI:10.12082/dqxxkx.2023.220708

[25]
杨金鹏, 黄柏圣, 陈小娇, 等. 一种改进YOLOV5的遥感和SAR图像舰船目标检测[J]. 中国电子科学研究院学报, 2023, 18(9):821-829.

[ Yang J P, Huang B S, Chen X J, et al. An improved YOLOV5-based ship target detection algorithm for remote sensing and SAR images[J]. Journal of China Academy of Electronics and Information Technology, 2023, 18(9):821-829. ] DOI:10.3969/j.issn.1673-5692.2023.09.007

[26]
薛远亮, 金国栋, 侯笑晗, 等. 融合注意力机制与改进SSD算法的SAR舰船目标检测方法[J]. 计算机应用研究, 2022, 39(1):265-269.

[ Xue Y L, Jin G D, Hou X H, et al. SAR ship object detection method incorporating attention mechanism and improved SSD algorithm[J]. Application Research of Computers, 2022, 39(1):265-269. ] DOI:10.19734/j.issn.1001-3695.2021.05.0174

[27]
Chen C, Hu C H, He C, et al. SAR ship detection under complex background based on attention mechanism[M]// Communications in Computer and Information Science. Singapore: Springer Singapore, 2019:565-578. DOI:10.1007/978-981-13-9917-6_54.

[28]
李健伟, 曲长文, 彭书娟. SAR图像舰船目标联合检测与方向估计[J]. 武汉大学学报(信息科学版), 2019, 44(6):901-907.

[ Li J W, Qu C W, Peng S J. A joint SAR ship detection and azimuth estimation method[J]. Geomatics and Information Science of Wuhan University, 2019, 44(6):901-907. ] DOI:10.13203/j.whugis20170328.

[29]
Zhang T W, Zhang X L, Shi J, et al. Depthwise separable convolution neural network for high-speed SAR ship detection[J]. Remote Sensing, 2019, 11(21):2483. DOI:10.3390/rs11212483

[30]
Mao Y X, Yang Y Q, Ma Z Y, et al. Efficient low-cost ship detection for SAR imagery based on simplified U-net[J]. IEEE Access, 2020, 8:69742-69753. DOI:10.1109/ACCESS.2020.2985637

[31]
LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324. DOI:10.1109/5.726791

[32]
Deng Y Y, Tang F, Dong W M, et al. StyTr2: Image style transfer with transformers[C]// 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2022:11326-11336. DOI:10.1109/CVPR52688.2022.01104

[33]
Hou Q B, Zhou D Q, Feng J S. Coordinate attention for efficient mobile network design[C]// 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2021:13713-13722. DOI:10.1109/CVPR46437.2021.01350

[34]
Ma S L, Xu Y, Ma S L, et al. MPDIoU: A loss for efficient and accurate bounding box regression[EB/OL]. 2023:2307.07662. DOI:10.48550/arXiv.2307.07662

[35]
Zhang T W, Zhang X L, Ke X, et al. LS-SSDD-v1.0: A deep learning dataset dedicated to small ship detection from large-scale sentinel-1 SAR images[J]. Remote Sensing, 2020, 12(18):2997. DOI:10.3390/rs12182997

[36]
Zhang T W, Zhang X L, Li J W, et al. SAR ship detection dataset (SSDD): Official release and comprehensive data analysis[J]. Remote Sensing, 2021, 13(18):3690. DOI:10.3390/rs13183690

[37]
Wang C Y, Yeh I H, Liao H Y M. YOLOv9: Learning what you want to learn using programmable gradient information[EB/OL]. 2024:2402.13616. DOI:10.48550/arXiv.2402.13616

[38]
Wang A, Chen H, Liu L H, et al. YOLOv10: Real-time end-to-end object detection[EB/OL]. 2024:2405.14458. DOI:10.48550/arXiv.2405.14458

[39]
Khanam R, Hussain M. YOLOv11: An overview of the key architectural enhancements[EB/OL]. 2024:2410.17725. DOI:10.48550/arXiv.2410.17725

[40]
Zhang X S, Wan F, Liu C, et al. Freeanchor: Learning to match anchors for visual object detection[J]. Advances in neural information processing systems, 2019, 32. DOI:10.48550/arXiv.1909.02466

[41]
Dai J F, Qi H Z, Xiong Y W, et al. Deformable convolutional networks[C]// 2017 IEEE International Conference on Computer Vision (ICCV). IEEE, 2017:764-773. DOI:10.1109/ICCV.2017.89

[42]
Tan M X, Pang R M, Le Q V. EfficientDet: Scalable and efficient object detection[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2020:10778-10787. DOI: 10.1109/CVPR42600.2020.01079

[43]
Liu S, Qi L, Qin H F, et al. Path aggregation network for instance segmentation[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. IEEE, 2018:8759-8768. DOI:10.1109/CVPR.2018.00913

[44]
Lu X, Li B Y, Yue Y X, et al. Grid R-CNN[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2019:7355-7364. DOI:10.1109/CVPR.2019.00754

[45]
Chen Y F, Zhang C Y, Chen B, et al. Accurate leukocyte detection based on deformable-DETR and multi-level feature fusion for aiding diagnosis of blood diseases[J]. Computers in Biology and Medicine, 2024,170:107917. DOI:10.1016/j.compbiomed.2024.107917

Outlines

/