Reference format: Fu Xiaoya, Wang Zhaocheng. SAR Ship Target Rapid Detection Method Combined with Scene Classification in the Inshore Region[J]. Journal of Signal Processing, 2020, 36(12): 2123-2130. DOI: 10.16798/j.issn.1003- 0530.2020.12.019.
合成孔径雷达(Synthetic Aperture Radar, SAR)是一种主动式的微波成像传感器,具有不受任何天气条件限制,全天时,全天候,作用距离远的技术优势,在军事和民用领域发挥着重要的作用[1]。其中,港口和海上区域的舰船检测是一个重要的研究方向,对SAR图像舰船进行有效的检测有利于海上运输管理,渔业管理,舰船油污探测等[2]。
传统的SAR图像舰船目标检测方法包括两个步骤:检测,鉴别。恒虚警率(Constant False Alarm Rate, CFAR)[3- 4]是SAR舰船目标检测常用的一类像素级目标检测方法,其前提是目标相对于背景有较强的对比度。这类方法首先对杂波进行统计建模,在给定虚警概率下自适应求得检测阈值,然后通过滑窗的方式将图像数据中待检测像素点灰度值与检测阈值进行比较,判断像素点为目标还是杂波来实现目标检测。但CFAR检测方法的性能依赖于海洋杂波的建模,模型易受到气候条件等影响,检测虚警率较高,且在大场景SAR图像中密集滑窗进行参数估计耗时。
近年来,随着深度学习技术的不断发展,使用深度神经网络实现目标检测已经成为目标检测领域的主流方向[5]。深度学习用于目标检测主要有两种类型:一类是以Faster R-CNN[6]为代表的两阶段方法,另一类是以YOLO[7-9]和SSD[10]为代表的单阶段方法。单阶段方法相对于两阶段方法,结构简单,检测速度快,因此本文是以SSD方法为基础,但本文的方法不局限于具体的目标检测方法。由于深度学习的方法能够主动有效的学习图像特征,许多研究者将基于深度学习的目标检测器引入到了SAR图像领域。
针对深度学习方法在小样本情况下容易过拟合问题,2017年Liu等人[11]提出了一种基于海陆分割的卷积神经网络(SLS-CNN)舰船检测框架,将数据驱动的网络模型和物理驱动的人工特征提取相结合,实现舰船目标检测。针对小目标容易漏检的问题,2017年Kang等人[12]提出了基于上下文信息的多层融合卷积神经网络,该方法融合了多尺度上下文信息,提高了网络模型对小目标的检测能力。针对SAR数据样本数目不足的问题,2018年Wang等人[13]提出了一种将SSD与迁移学习相结合的目标检测算法,利用10幅Sentinel-1 SAR图像对其方法进行了评估,实验结果表明迁移学习可提高检测精度;同年,海军航空大学李建伟等人[14]构建了一个首次公开的SAR舰船检测数据集,提出了基于CNN的SAR图像舰船目标检测的方法,在数据集上与Faster RCNN检测算法作对比实验,检测结果显示其方法有更高的检测准确率和更快的检测速度。针对公开的SAR舰船图像数据集有限且大多以远海背景为主的问题,2019年中国科学院空天信息创新研究院孙显等人[15]构建了高分辨率SAR舰船检测数据集AIR-SARShip-1.0,该数据集包含31景高分三号的多场景SAR图像,其中场景类型主要涵盖了港口、岛礁和不同级别海况的海面。在此数据集基础上,作者使用经典舰船检测方法和深度学习检测方法进行了实验,检测结果显示基于密集连接端到端的网络方法效果最佳;同年,Lin等人[16]提出了一种基于Faster RCNN 的SAR舰船目标检测方法SER faster R-CNN,该方法首先利用VGG网络提取多尺度信息,获得共享特征图;在PRN阶段使用SER机制,抑制冗余的特征图。在Sentinel-1数据集上的实验结果显示SER机制可提高Faster R-CNN的检测性能;同年Cui等人[17]针对舰船小目标的检测问题,提出了一种密集注意力金字塔网络(DAPN)的SAR图像多尺度舰船检测方法,该方法将卷积块注意模块(CBAM)嵌入FPN以构建DAPN,DAPN提取包含空间和语义信息的多尺度特征图以及包含非模糊全局特征和显著局部特征的最终融合特征图,有效地提高了检测精度。2020年Cui等人[18] 针对大场景下的SAR舰船目标检测,提出了一种基于中心网(CenterNet)的SAR舰船目标检测方法,该方法使用CenterNet通过关键点估计定位目标的中心点且在CenterNet中引入了SSE注意力模块,能够更好地提取目标的区域特征,可以有效避免SAR舰船目标的漏检与虚警;同年,Mou等人[19]针对复杂的海上环境中海杂波对目标检测造成干扰的问题,提出了一种海杂波抑制生成对抗网络(SCS-GAN),与现有的杂波抑制模型相比,该方法具有更强的杂波抑制性能;同年,Mou等人[20]针对复杂环境下的目标检测,设计了一种杂波抑制目标检测融合网络INet,杂波抑制通过层归一化-传递和连接方法提取关键目标特征,采用注意力残差网络抑制杂波,在目标检测中构建了跨阶段局部残差网络可保证检测网络的轻量化和准确性。
以上方法虽然在舰船检测方向取得了一定的成就,但是将大场景SAR图像密集滑窗获得子图像输入到深度学习检测器中进行舰船检测,往往会存在大量的冗余信息(例如在复杂大场景下不包含目标的陆地区域)降低检测效率,并且会出现的大量陆地区域虚警。而传统海陆分割方法(例如马尔可夫随机场[21]和Ostu[22]多阈值分割)需要完成海洋与陆地的像素级分割,且精确的海陆分割结果难以获得,尤其在近岸区域分割结果对舰船检测影响较大。
因此,为解决上述问题,本文提出一种结合场景分类的近岸区域SAR舰船目标快速检测方法(SC-SSD)。该方法是由场景分类网络(SC-CNN)和目标检测网络(SSD)构成。SC-CNN利用深度卷积神经网络实现潜在舰船区域的筛选,SSD实现精细化的舰船检测,两者级联最终实现复杂大场景SAR图像下的舰船目标检测。本文方法的主要创新在于:
(1)深层网络目标检测器用于SAR舰船目标检测时通常需要密集滑窗提取子图像预处理,然后利用目标检测网络直接对子图像进行目标检测,该过程存在大量冗余信息,极大影响了检测效率的提升。本文方法结合场景分类可剔除大量的冗余信息,提高检测速度。
(2)本文提出的场景分类与传统的海陆分割不同,不需要精确的像素级分割结果,训练阶段只需要区域级的子图像场景标注信息,测试阶段整幅子图像作为场景分类依据算法更加鲁棒;不需要复杂耗时图像分割步骤,对子图像场景分类可用GPU加速。
图1给出通过深度学习的方法对大尺寸的SAR图像进行舰船目标检测时的框架图,由图1所示,常采用密集滑窗的方法将原始的SAR图像剪切为小尺寸的子图像,再将子图像送入到深度学习目标检测器中检测。但是上述方法会产生大量的冗余信息降低检测效率,而且出现的陆地区域的虚警会增加检测精度下降的可能性。
图1 传统方法总体框图
Fig.1 Framework of the traditional approach
图2 提出舰船检测方法的框图
Fig.2 Framework of the proposed ship detection method
通过以上分析,针对复杂大场景SAR舰船目标检测,本文设计一种结合场景分类的近岸区域SAR舰船目标快速检测方法,图2给出了舰船检测方法的框图。由图2所示,剔除方法主要包含两个阶段:场景分类阶段和目标检测阶段。第一个阶段主要由场景分类网络(SC-CNN)构成,SC-CNN从大场景滑窗获得的子图像中快速筛选出可能包含舰船的子图像,减少了信息冗余;第二个阶段主要由目标检测网络(SSD)构成,SSD[10]对筛选出的子图像进行精细化的舰船检测,降低了陆地区域的虚警数。两个阶段级联实现原始大场景SAR图像的舰船检测。
图2给出了场景分类阶段的框图,从图2可以看出SC-CNN主要实现场景分类的功能。首先将大尺寸的SAR图像进行密集滑窗获得小尺寸的子图像输入到SC-CNN网络中,SC-CNN网络将子图像分为三类场景:陆地区域(Land),海陆交界区域(Sea and Land, SL)海上区域(Sea),剔除Land的子图像,保留Sea和SL的子图像,获得潜在舰船区域。
2.2.1 SC-CNN网络结构
随着卷积神经网络(CNN)深度的增加,网络的拟合能力越来越强,但不断的增加网络的深度,网络模型的准确度可能下降,甚至会出现梯度消失[23]或梯度爆炸的现象。针对以上问题,2015年何凯明等人[24]提出了ResNet模型,该模型的亮点在于提出残差结构,该结构通过shortcut连接,能保证反向传播时信号可以无衰减地传递梯度,即使网络层数加深,也能高效地学习。故在场景分类部分选择ResNet18网络结构,首先从一个卷积核大小为7×7卷积操作和池化层感受野为3×3的最大池化开始,然后是四个残差模块个数不同的卷积层(Conv2_xConv3_x,Conv4_x,Conv5_x),最后是采用全局平均的池化层和全连接层,网络结构详情如表1所示。
表1 ResNet18详细结构
Tab.1 The ResNet18 architecture factors
Layer NameResNet18Conv17×7, 64, stride 2Pool13×3 max pool, stride 2Conv2_x3×3,643×3,64×2Conv3_x3×3,1283×3,128×2Conv4_x3×3,2563×3,256×2Conv5_x3×3,5123×3,512×2Pool2average pool, stride 1Fc3-d, softmax
2.2.2 样本不平衡
场景分类训练数据存在样本不均衡的问题,具体表现在Land,SL和Sea这三类样本的数据量差异很大。如果在训练分类网络的过程中忽略样本不平衡问题,那么网络模型的预测结果可能会偏向数量较多的样本类别,影响模型的预测性能。用于处理以上问题的解决方案有Focal Loss[25]和GHM(Gradient Harmonizing Mechanism)-C Loss[26]。Focal Loss是基于交叉熵损失函数设计的,针对的是难易例不平衡问题,可通过减少易分类样本的权重,使得网络在训练过程中更关注难分类样本,但其采用两个超参数[25],在训练过程中需要进行大量的调整导致损耗较大。GHM-C Loss是一种梯度协调机制[26],对简单样本和离群样本进行相对地抑制,即让各种难度类型的样本有均衡地对损失函数累计贡献,但是梯度的最优分布很难定义。本文提出的方案是对带有标签的样本进行数据扩充,扩充后的样本数量达到13倍,然后对扩充后的样本按近似于1∶2∶2的比例随机选取三类样本的数据。
2.2.3 目标检测
图2给出了目标检测阶段的框图,从图2可以看出SSD主要实现舰船目标检测的功能。将场景分类阶段筛选的潜在舰船区域子图像输入到SSD网络中,进行精细化舰船目标提取,最终实现复杂大场景SAR图像的舰船目标检测。
本实验采用高分辨率SAR舰船检测数据集AIR-SARShip-1.0构建场景分类和目标检测所用的数据集[14],该数据集包含31景高分三号的多场景SAR图像,其中场景类型主要涵盖了港口、岛礁和不同级别海况的海面,此数据集为公开数据集,网址http://radars.ie.ac.cn/web/data/getData?dataType=SARDataset。
首先,对26景大图进行密集滑窗获得500×500大小的子图像,再对子图像进行类别标记。其次,由于数据集的规模有限,采用数据扩充的方法对子图像进行扩充,再随机选择一定的样本作为场景分类的训练集,图3给出了场景分类训练集示例,其中一些子图像属于Sea,一些子图像属于SL,一些子图像属于Land。场景分类训练和测试样本数量如表2所示。
图3 场景分类训练集示例
Fig.3 Example of scene classification training dataset
表2 场景分类训练和测试样本数量
Tab.2 Number of training and testing samples of Scene Classification
类别训练样本数量测试样本数量Sea391599SL3895106Land126063
然后,对26景大图进行密集滑窗获得500×500大小的子图像。最后进行数据扩充生成目标检测的训练集,图4给出了目标检测训练集示例。由图4可以看出,一些子图像是海上的舰船,一些子图像是港口的舰船,图中的蓝色边框表示舰船的真实位置。
图4 目标检测训练集示例
Fig.4 Example of target detection training dataset
为了对不同的分类检测方法进行定量评价,选取了2个性能指标,分别是mAP(各类别平均准确率的平均值)、Running time(预测运行时间)。mAP的数学表达式如下所示:
(1)
其中,AP1代表Sea的平均准确率,AP2代表SL的平均准确率,AP3代表Land的平均准确率。
为了对不同的检测方法进行定量评价,选取了5个性能指标,分别是Precision(准确率)、Recall(召回率)、Pf(虚警率)、F1 score(F1分数)和Running time(预测运行时间)。F1 score是准确度和召回率之间的调和平均值,是评价检测性能的主要参考指标。Running time是评价检测速度的指标。它们数学表达式如下所示:
(2)
(3)
(4)
(5)
其中TP是正确检测的舰船目标数, FP是虚警数,FN是未被检测到的舰船目标数。
分类实验使用的显卡是NVIDIA GeForce RTX 2080 Ti,软件环境为Ubuntu 18.04,CUDA 10.2以及Pytorch深度学习框架。实验选取了ResNet34、MobileNetV2和ResNet18这三种分类网络,由表3可以看出,在测试样本上,ResNet18的mAP最高。针对图7中的大场景图像,ResNet18分类所需的运行时间仅比轻量化网络MobileNetV2多0.11455 s。
表3 不同分类方法的实验结果
Tab.3 Experimental results of different classification methods
EvaluationMethod mAPRunning time/sResNet340.888794.55256MobileNetV20.811534.20827ResNet180.890194.32282
为了验证所提出的结合场景分类的近岸区域SAR舰船快速目标检测方法的有效性,选取了CFAR方法、YOLOV3方法、SSD方法、基于OSTU分割的OSTU+SSD方法和本文提出的方法在高分辨率SAR舰船检测数据集AIR-SARShip-1.0进行对比实验。深度学习方法实验使用的显卡是NVIDIA GeForce RTX 2080 Ti,软件环境为Ubuntu 18.04,CUDA 10.2以及Pytorch深度学习框架。传统CFAR算法使用CPU计算,CPU为Inter(R)Core(TM)i5- 8265U CPU @1.60GHz。在测试阶段,将场景分类阶段与目标检测阶段进行级联,再将原始大场景SAR图像输入到级联网络中检测舰船目标,对检测结果使用NMS获得最终的检测结果。
表4 不同方法的实验结果
Tab.4 Experimental results of different methods
EvaluationMethod PrecisionRecallPfF1Running time/sCFAR0.116500.244890.857140.1578631.66160YOLOV30.757580.510200.242420.6097546.29157SSD0.903220.571420.096770.6999932.21577OSTU+SSD0.896550.530610.103450.6666627.82339Ours0.823530.693880.176470.7531621.32602
图5 CFAR的检测结果,矩形框蓝色的为真实框,绿色的为检测框,红色的为虚警框
Fig.5 The detect results of CFAR, the blue bounding boxes indicate the real location of the ship in the images, the green bounding boxes indicate the detected location of the ship in the images, the red bounding boxes indicate the false location of the ship in the images
如表4所示,双参数CFAR的检测性能较差,YOLOV3的整体性能低于SSD,OSTU+SSD的检测性能低于SSD,在检测速度上优于SSD。本文的方法在Recall、F1和检测速度上都是最优的。针对图7中(a)图的大场景图像,本文的方法相对于SSD在检测速度上提高了10.88975 s。
图5~图9给出五种检测方法的其中两幅大场景测试图像的检测结果。由图5可以看出,双参数CFAR算法产生的虚警较多,不能准确定位相邻目标。其主要原因在于CFAR是基于目标相对于背景有较强的对比度,只考虑强度信息,易产生虚警;其次,CFAR检测后使用聚类算法可能会将不同的目标合并到一个目标区域内。由图6和图7可以看出,YOLOV3相对于SSD虚警和漏检较多。由图8和图9可以看出在(b)中复杂近岸区域场景下,OSTU阈值分割的方法会造成一定的漏检。由图7和图9可以看出本文方法和SSD对绝大多数舰船目标能正确检测出,检测框和真实框的重合度较好。本文方法是基于场景分类的,在复杂大场景中将Land子图像剔除,减少冗余信息,在保持较高检测精度的同时提高了检测效率。
图6 YOLOV3的检测结果
Fig.6 The detect results of YOLOV3
图7 SSD的检测结果
Fig.7 The detect results of SSD
图8 OSTU+SSD的检测结果
Fig.8 The detect results of OSTU+SSD
图9 Ours的检测结果
Fig.9 The detect results of Ours
由于深层网络目标检测器用于SAR舰船目标检测会存在降低目标检测效率的大量冗余信息,因此本文提出了一种结合场景分类的分层渐进式近岸区域SAR舰船快速目标检测方法,将近岸区域场景下的陆地区域剔除可加速目标检测过程,且该方法不局限于具体的目标检测方法,主要分为场景分类阶段和目标检测阶段。其中SC-CNN用于筛选出存在极大可能性包含舰船目标的子图像,SSD实现对候选子图像的精细化舰船检测。在高分辨率SAR舰船检测数据集AIR-SARShip-1.0[14]上与传统的舰船检测方法和SSD方法进行了对比实验。实验结果表明,所提出的方法在目标检测的性能上更具优越性,它兼备了较高的检测精度和明显更快的检测效率。在未来的工作中,考虑构建更多的近岸场景数据集,以进一步验证提出的舰船检测方法。
[1] 杜兰, 王兆成, 王燕, 等. 复杂场景下单通道SAR目标检测及鉴别研究进展综述[J]. 雷达学报, 2020, 9(1): 34-54. DOI: 10.12000/JR19104.
Du Lan, Wang Zhaocheng, Wang Yan, et al. Survey of research progress on target detection and discrimination of single-channel SAR images for complex scenes[J]. Journal of Radars, 2020, 9(1): 34-54. DOI: 10.12000/JR19104.(in Chinese)
[2] 张晓玲, 张天文, 师君, 等. 基于深度分离卷积神经网络的高速高精度SAR舰船检测[J]. 雷达学报, 2019, 8(6): 841- 851. DOI: 10.12000/JR19111.
Zhang Xiaoling, Zhang Tianwen, Shi Jun, et al. High-speed and High-accurate SAR ship detection based on a depthwise separable convolution neural network[J]. Journal of Radars, 2019, 8(6): 841- 851. DOI: 10.12000/JR19111.(in Chinese)
[3] 王兆成, 李璐, 杜兰, 等. 基于单极化SAR图像的舰船目标检测与分类方法[J]. 科技导报, 2017, 35(20): 86-93.
Wang Zhaocheng, Li Lu, Du Lan, et al. Ship detection and classification baser on single-polarization SAR images[J]. Science Technology Review, 2017, 35(20): 86-93.(in Chinese)
[4] 高贵, 周蝶飞, 蒋咏梅, 等. SAR图像目标检测研究综述[J]. 信号处理, 2008, 24(6): 971-981.
Gao Gui, Zhou Diefei, Jiang Yongmei, et al. Study on Target Deteetion in SAR Image: A Suvrey[J]. Signal Processing, 2008, 24(6): 971-981.(in Chinese)
[5] 冯烨, 张索非, 吴晓富. 面向目标检测的SSD网络轻量化设计研究[J]. 信号处理, 2020, 36(5): 756-762. DOI: 10.16798/j.issn.1003-0530.2020.05.015.
Feng Ye, Zhang Suofei, Wu Xiaofu. A Light-weighted SSD Network Design for Object Detection[J]. Journal of Signal Processing, 2020, 36(5): 756-762. DOI: 10.16798/j.issn.1003-0530.2020.05.015.(in Chinese)
[6] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6):1137-1149.
[7] Redmon J, Divvala S, Girshick R B, et al. You only look once: unified, real -time object detection[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society Press, 2016: 1063-1069.
[8] Redmon J, Farhadi A. YOLO9000: Better, faster, stronger[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society Press, 2016: 6517- 6525.
[9] Redmon J, Farhadi A. YOLOv3: An incremental improvement[EB/OL]. [2018-04-08]. https:∥arxiv.org/abs/1804.02767.
[10] Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multi box detector[C]∥Proceedings of European Conference on Computer Vision. Heidelberg: Springer, 2016: 21-37.
[11] Liu Y, Zhang M H, Xu P, et al. SAR ship detection using sea-land segmentation-based convolutional neural network[C]∥2017 International Workshop on Remote Sensing with Intelligent Processing (RSIP). IEEE, 2017.
[12] Kang M, Ji K, Leng X, et al. Contextual Region-Based Convolutional Neural Network with Multilayer Fusion for SAR Ship Detection[J]. Remote Sensing, 2017, 9(8):860- 873.
[13] Wang Y, Wang C, Zhang H. Combining a single shot multibox detector with transfer learning for ship detection using sentinel-1 SAR images[J]. Remote Sensing Letters, 2018, 9(7-9): 780-788.
[14] 李健伟, 曲长文, 彭书娟, 等. 基于卷积神经网络的SAR图像舰船目标检测[J]. 系统工程与电子技术, 2018, 40(9): 1953-1959.
Li Jianwei, Qu Changwen, Peng Shujuan, et al. Ship detection in SAR images based on convolutional neural network[J]. Systems Engineering and Electronics, 2018, 40(9): 1953-1959.(in Chinese)
[15] 孙显, 王智睿, 孙元睿, 等. AIR-SARShip-1.0: 高分辨率SAR舰船检测数据集[J]. 雷达学报, 2019, 8(6): 852- 862.
Sun Xian, Wang Zhirui, Sun Yuanrui, et al. AIR-SARShip-1.0: High-resolution SAR ship detection dataset[J]. Journal of Radars, 2019,8(6):852-862.(in Chinese)
[16] Lin Z, Ji K, Leng X, et al. Squeeze and Excitation Rank Faster R-CNN for Ship Detection in SAR Images[J]. IEEE Geoscience and Remote Sensing Letters, 2018, PP(99):1-5.
[17] Cui Z, Li Q, Cao Z, et al. Dense Attention Pyramid Networks for Multi-Scale Ship Detection in SAR Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, PP(99): 1-15.
[18] Cui Z, Wang X, Liu N, et al. Ship Detection in Large-Scale SAR Images Via Spatial Shuffle-Group Enhance Attention[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, PP(99):1-13.
[19] Mou X, Chen X, Guan J, et al. Sea Clutter Suppression for Radar PPI Images Based on SCS-GAN[J]. IEEE Geoscience and Remote Sensing Letters, 2020, PP(99):1-5.
[20] 牟效乾, 陈小龙, 关键, 等. 基于INet的雷达图像杂波抑制和目标检测方法[J]. 雷达学报, 2020, 9(4): 640- 653. DOI: 10.12000/JR20090.
Mou Xiaoqian, Chen Xiaolong, Guan Jian, et al. Clutter suppression and marine target detection for radar images based on INet[J]. Journal of Radars, 2020, 9(4): 640- 653. DOI: 10.12000/JR20090.(in Chinese)
[21] 张翠, 郦苏丹, 王正志. 基于MRF场的SAR图像分割方法[J]. 遥感技术与应用, 2001(1): 66- 68.
Zhang Cui, Li Sudan, Wang Zhengzhi. SAR Image Segmentation Based On Markov Random Field Model[J]. REMOTE SENSING TECHNOLOGY AND APPLICATION, 2001(1): 66- 68.(in Chinese)
[22] 杨蕴, 李玉, 王玉, 等. 一种改进的Otsu多阈值SAR图像分割方法[J]. 遥感信息, 2019, 34(4): 29-38. DOI: 10.3969/j.issn.1000-3177.2019.04.006.
Yang Yun, Li Yu, Wang Yu, et al. An Improved Ostu Multi-threshold SAR Image Segmentation Method[J]. Remote Sensing Information, 2019, 34(4): 29-38. DOI: 10.3969/j.issn.1000-3177.2019.04.006.(in Chinese)
[23] Mohammed M A, Abdulkareem K H, Mostafa S A, et al. Voice Pathology Detection and Classification Using Convolutional Neural Network Model[J]. Applied Ences, 2020, 10(11): 3723.
[24] He K, Zhang X, Ren S, et al. Deep Residual Learning for Image Recognition[C]∥IEEE Conference on Computer Vision & Pattern Recognition. IEEE Computer Society, 2016.
[25] Lin T Y, Goyal P, Girshick R, et al. Focal Loss for Dense Object Detection[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, PP(99): 2999-3007.
[26] Li B, Liu Y, Wang X. Gradient Harmonized Single-stage Detector[J]. The Thirty-Third AAAI Conference on Artificial Intelligence (AAAI-19), 2018: 8577-8584.
付晓雅 女, 1995年生, 河北石家庄人。河北工业大学电子信息工程学院, 硕士研究生, 主要研究方向为SAR图像智能解译、机器学习。
E-mail: fxiaoya_hg@163.com
王兆成 男, 1990年生, 山东威海人。河北工业大学电子信息工程学院, 讲师, 主要研究方向为SAR目标检测与识别、机器学习与微波视觉。
E-mail: zcwang@hebut.edu.cn