基于FasterR-CNN模型的低空平台偏振高光谱目标检测论文

基于Faster R-CNN模型的低空平台偏振高光谱目标检测

黄 伟1,曹宇剑2,徐国明2,3

(1. 中国电子科技集团公司第二十七研究所,河南 郑州 450047;2. 中国人民解放军陆军炮兵防空兵学院,安徽 合肥 230031;3. 安徽新华学院信息工程学院,安徽 合肥 230088)

摘要:随着无人机等低空平台在侦察领域的不断扩展以及对性能要求的不断提高,各应用场景对目标检测精度和速度也提出了越来越高的要求。传统的目标成像方法难以满足图像质量需求,人工识别目标的方法也无法应对战场环境的快速变化。结合深度学习和偏振高光谱成像技术的发展,通过模拟偏振高光谱低空目标检测平台,提出基于Faster R-CNN的地面军事目标检测方法。采用区域建议网络模块进行模型训练,而在目标检测阶段通过对特征图进行兴趣区域池化操作得到建议特征图,最后利用建议特征图完成目标类别判定。实验选取3种典型的军事车辆缩比模型,通过偏振高光谱相机在室内外模拟环境中获取目标在不同场景条件的图像数据,以及某型无人机在低空条件下的地面车辆目标数据进行实验验证。实验表明,该方法在有效完成地面目标的检测时,能够达到理想的检测精度和速度。

关键词:深度学习;偏振高光谱图像;目标检测;无人机

0 引言

随着现代战争对战场形势的实时感知能力的需求不断提高,高分辨率侦察卫星、无人机、炮射悬浮侦察弹等平台先后被运用到战场环境的侦察活动中。偏振高光谱探测能够将传统探测手段获取图像信息扩展到偏振、光谱、辐射和空间4个维度[1],物体随表面粗糙程度、材料结构等不同会呈现出不同的偏振特性[2],能够提供比传统的图像更多的目标信息,能够增大目标和背景的对比度,更加有利于目标的检测工作。高光谱偏振图像所具有的双重优势,弥补了偏振与高光谱单一成像技术的不足,使得它既能检测到伪装下的物体,又可以通过光谱信息解析识别出该物体信息。因此高光谱偏振图像具有广泛的应用前景,尤其是在军事侦察领域。

另一方面,利用人工智能技术实现对目标的快速自动检测,已经开始在人脸识别、物体检测等方面得到应用,并且取得了令人满意的效果,但在军事领域的实际应用还处于起步阶段。原始的目标检测手段需要将获取的图像数据不断地发送到情报处理部门进行人工判读,数据量较为庞大,对信号连接稳定性、连接带宽都有严格要求,大大增加了侦察体系的复杂性。实现目标检测平台的智能识别的优点主要体现在3个方面[3]:第一,减少大量的原始数据传输;第二,减少冗余数据传输;第三,节省侦察情报处理时间。人工智能从20世纪50年代发展至今,已经进入了深度学习的研究阶段,其相关方法使得实时自动目标检测的实现成为可能。

深度学习的概念由Hinton等人于2006年提出[4],2012年,Hinton和Krizhevsky使用卷积神经网络[5](Convolutional Neural Network,CNN)将ILSVRC,即大规模视觉识别挑战赛的分类任务的Top-5 error(给定一幅图像,其标签不在模型认为最有可能的5个结果中的几率)降低到了15.3%,卷积神经网络在大规模的图像分类任务中开始体现出巨大的优势,构成了当前深度学习的发展基础。深度学习的优点主要体现在3个方面[6]:一是特征呈现,CNN将特征提取和模型学习形成一个整体,而不使用任何先期的低层特征描述符号;二是大规模学习,它借助可调节的网络结构,可以同时学习数百万计的大规模数据;三是参数学习,由于可拓展的网络结构,数百万的参数能够被训练出来。

经典的目标检测技术可以概括为3个步骤:首先在给定的图像上选择一些候选的区域,然后对这些区域提取特征,最后使用训练分类器进行分类。这种初始框架的局限性在于:第一,区域选择策略是基于固定长宽比的滑动窗口,选择上没有针对性,容易出现窗口冗余,时间复杂度高;第二,手工设计的特征对于多样性的特征变化并没有很好的鲁棒性。针对早期框架存在的问题,Hosang等人[7]提出了区域建议(Region Proposal,RP)的解决方法,该方法利用了图像中的纹理、边缘、颜色等信息,可以保证在选取较少窗口的情况下保持较高的召回率,这大大降低了后续操作的时间复杂度,并且获取的候选窗口比滑动窗口的质量更高。2014年,Girshick[8]使用RP+CNN代替传统目标检测使用的滑动窗口+手工设计特征,设计了R-CNN(Region-based Convolutional Neural Network)框架,目标检测领域取得巨大的突破。但是R-CNN框架的不足在于对图像提取完RP之后,仍要将每个proposal当成一张图像进行后续处理,造成在卷积操作上耗费大量时间,限制了目标检测速度的提升,并不能满足实时应用的要求。He等人[9]提出的金字塔模型SPP-Net,通过对图像提取一次卷积层特征,然后将每个RP的卷积层特征输入到全连接层做后续操作,该方法解决了R-CNN模型在卷积操作阶段耗时多的问题。Girshick[10]提出了Fast-R-CNN模型,在简化了金字塔模型的同时,引入了多任务损失函数,将边框回归直接加入到CNN网络中训练,并使用softmax替代了SVM[11]分类,相对于R-CNN,它的检测速率大幅提高。

Faster R-CNN[12]框架是在R-CNN、SPP-Net、Fast-R-CNN等模型的基础上发展而来,在突出深度学习特点的同时,目标检测速度得到大幅提高。表1所示的基于VGG-16[13]网络的不同框架在PASCALVOC2007[14]数据集测试中的结果相比,可以看出Faster R-CNN在检测精度和时间等指标上具有明显优势。

笔者书写交易性金融资产费用会计核算问题的思路,首先要把握金融资产的费用问题,其次是记录过程中所需要的交易费用,最后是交易过程中所产生的利润问题。其中应收利息和股利问题,是笔者所要着重表达的,所以,在本小节内,笔者会详细论述,笔者对于会计工作中,交易金融资产,交易费用核算的看法,和交易金融资产,所应获取的利息和股利的看法。

ArcGIS for Maritime是ArcGIS Desktop的一个扩展模块,主要用于解决海洋、海事、水道测量中产生的数据处理加工问题。NIS模型是ArcGIS for Maritime模块专门为海图设计的制图模型,以地理数据库模型为基础,参照IHO中物标的定义,对S57中的物标进行了合并和复杂处理,将S57原始物标进行重新整合和组织,将原始数据按物标的相似性分为43个专题层,每个专题层根据空间类型分为点线面三个不同的要素类。示例如下:

表1 基于VGG-16模型的不同框架在VOC2007数据集上的比较

Table 1 Results of different framework based on VGG-16 model in VOC2007 data

本文结合深度学习和偏振高光谱成像技术的发展,利用实验室搭建的偏振高光谱低空目标检测模拟平台,提出基于Faster R-CNN的地面军事目标检测方法。在Faster R-CNN模型框架下,将Fast-R-CNN中的多任务损失函数用于目标分类计算和目标边界框回归;为提高目标检测精度,提出4步训练算法,通过交替优化来学习共享卷积特征。实验选取3种典型的地面军事目标缩比模型,通过偏振高光谱相机在室内外模拟环境中获取目标在不同场景条件的图像数据进行实验验证。

1 目标检测框架

目标检测的框架如图1所示,整个过程分图像数据采集、网络模型训练、目标样本检测等3个阶段。在图像数据采集阶段,利用偏振高光谱低空目标检测模拟平台,获得目标在多场景下的图像训练样本集;第二阶段,采用区域建议网络模块用训练样本集训练Faster R-CNN模型;在目标样本检测阶段,则利用对特征图进行兴趣区域池化操作得到建议特征图,利用建议特征图完成目标类别判定,得到检测结果。

2 Faster R-CNN模型

Faster R-CNN框架由区域建议网络模块(RPN,Region Proposal Network)和Fast-R-CNN检测模块两个部分组成。其中,RPN用于提取候选框,Fast-R-CNN检测模块基于RPN提取的proposal检测并识别proposal中的目标。在该框架中,目标检测的4个基本步骤(RP生成、特征提取、目标分类、边界框优化)被统一到一个深度网络框架之内,计算完全在GPU中完成并且没有重复,大大提高了运行速度,较好地达到了实时检测的要求,模型的目标检测过程如图2所示。

2.1 区域建议网络模块

SPP-Net和Fast-R-CNN模型虽然已经减少了检测网络运行的时间,但是计算RP依然耗时较大。针对这样的问题,Girshick和He等人[15]提出了使用RPN来替代Fast-R-CNN中的选择性搜索方法来提取检测区域,它能和整个检测网络共享全图的卷积特征,使得RP几乎不花时间。

算法1:Faster R-CNN模型训练

width=433.75,height=133.05

图1 目标检测框架

Fig.1 Object detection framework

width=402.9,height=131.65

图2 Faster R-CNN框架的检测过程

Fig.2 Detection process via Faster R-CNN framework

步骤3:结合步骤1产生的特征图和步骤2产生的RP集对特征图进行兴趣区域池化操作,修正提取建议特征图;

2.2 多任务损失函数

RPN沿用了Fast-R-CNN中的多任务损失函数设计,包括了分类损失和回归损失,分别用于目标分类计算和目标边界框回归。对一幅图像的损失函数定义如下:

width=242.05,height=32(1)

式中:pi为第i个anchor是目标的预测概率;pi*为对应的实际边界框(GT,Ground Truth)的预测概率,即如果第i个anchor边框与GT间的召回率IoU>0.7,认为该anchor是目标(foreground),pi*=1;反之IoU<0.3时,认为该anchor是背景(background),pi*=0,0.3<IoU<0.7的anchor则不参与训练;ti是一个向量,表示预测的边界框的4个参数化坐标,具体为ti(tx,ty,tw,th),前两项是边界框中心的坐标,后两项是边界框的宽和高;ti*是与anchor对应GT的坐标向量。

分类损失为两个类别(目标类和非目标类)的对数损失,计算公式如下:

width=166.05,height=17(2)

通过共享卷积特征,Faster R-CNN框架的两个核心模块实现了共享相同的卷积层,构成一个统一的网络,提高了目标检测精度。

width=86.95,height=19(3)

式中:R是参考文献[10]中定义的鲁棒的损失函数(smoothL1):

对我院既往手卫生工作的回顾及调查,运用“鱼骨图”原理,从成员、管理等方面分析手卫生依从率低的原因,制作鱼骨图,详见图1.

width=145.05,height=34.5(4)

对于显示窗口使用四维向量(x,y,w,h)表示,分别表示窗口的中心点坐标和宽高,边界框回归学习的目标是寻找一种关系,使得输入原始的anchor A经过映射得到一个跟真实窗口G更接近的回归窗口G¢ ,即:给定A=(Ax,Ay,Aw,Ah),寻找一种映射f,使得f(Ax,Ay,Aw,Ah)=(Gx¢ ,Gy¢ ,Gw¢ ,Gh¢ ),其中(Gx¢ ,Gy¢ ,Gw¢ ,Gh¢ )≈(Gx,Gy,Gw,Gh)。这里通过平移和缩放两个步骤来实现anchor到近似GT的过渡。

步骤1:使用一组基础的卷积、修正线性单元(ReLu)、池化层提取目标图像的特征图;

width=83,height=35(5)

缩放变换如下:

师父是一个老和尚,法号了空。风影六岁那年,有一天师父来到了他家找他父亲聊天,喝茶,他们一口一口地喝茶,父亲请老僧对孩子的未来给予启示,老和尚说,父亲的茶很好,是上等的东白山高山野茶。随后,了空法师就将风影从他的父母亲手上领到了寺院里,交给他一个木鱼,让他每天都从早上一直敲到深夜。

width=87.5,height=33(6)

含电动汽车和电转气的园区能源互联网能源定价与管理//李媛,冯昌森,文福拴,王珂,黄裕春//(16):1

表2 回归计算参考坐标

Table 2 Reference coordinates for regression calculation

表2中:xywh含义同公式(1)中向量ti的各参数,分别指的是预测边界框中心的x坐标、y坐标、边界框的宽和高;xayawaha为anchor边界框的坐标参数;x*y*w*h*为GT边界框的坐标参数。计算公式的意义可以理解为从anchor边界框到附近的GT边界框的边界框回归,使其更接近于实际的边界框。

2.3 共享卷积特征

在FasterR-CNN框架中,RPN和Fast-R-CNN都是独立训练的,需要不同方式修改它们的卷积层,在文献[12]中,提出了4步训练算法,通过交替优化来学习共享特征,具体如表3所示。

回归损失计算公式如下:

表3 共享卷积特征基本步骤

Table 3 Basic steps of shared convolution characteristic

3 目标检测算法

目标检测框架包含网络训练和目标检测两个部分。模型训练是在已经训练好的模型的基础上进行训练,本文使用预训练模型为ZF[17]模型,根据文献[12]中循环次数对训练参数的影响,将循环次数定为2次,结合表3描述的共享卷积方案进行网络训练。模型训练完成之后,进行样本图像的目标检测,通过网络模型提取特征图,进行分析并得出结果,包括图像中目标的类型和位置。

部分护理人员还未能充分了解和认识继续教育,在实际的学习中具有一定的盲目性。除此之外,在教育地点远、倒班、教育经费短缺以及工作忙等因素的影响下,导致护理人员无法完成继续教育[11]。

②花卉苗木产业出现种植土地、生产基地用地紧张,规模受限的状况,成为了产业发展的瓶颈;企业融资困难,社会资金引入通道不畅,成为了产业发展的难题;种植技术陈旧,配套服务滞后,成为产业发展的桎梏;种植与生产脱离市场,管理混乱,造成了产业发展的束缚。

根据以上分析,基于Faster R-CNN模型的低空平台偏振高光谱目标检测算法描述如下:

这里需要学习的是dx(A),dy(A),dw(A),dh(A)这4个变换,对应于参考文献[8]中设置,平移量(tx,ty)、(tx*,ty*)与尺度因子(tw,th)、(tw*,th*)的表达如表2。

RPN的核心思想是使用CNN直接产生region proposal,使用的方法本质上就是滑动窗口,和早期方法不同的是,这里只需在最后的卷积层上滑动一遍。RPN也是全卷积网络(FCN[16],Fully-Convolutional Network),只是在CNN框架上额外增加了2个全卷积层(类别层cls-layer和回归层reg-layer),可以针对生成检测建议框的任务进行端到端的训练,同时预测出目标的类别分数和边界。

步骤1:通过训练好的模型进行参数初始化,在此基础上训练RPN网络;

步骤2:利用步骤1中训练好的RPN网络,获取兴趣RP;

步骤3:第一次训练Fast-R-CNN网络;

步骤4:第二训练RPN网络;

作为上下游一体化公司末端,销售板块必须承担产业链后路责任,确保集团公司自产一亿吨原油以及3000 万吨陆上进口原油加工为成品油销售出去,确保产业链价值的实现。这些资源加工的成品油约8000 万吨,与零售网络能力大致相当。再增加原油加工的成品油理论上只有批发和出口两个渠道。

步骤5:再次利用步骤4中训练好的RPN网络;

步骤6:第二次训练Fast-R-CNN网络。

式中: fd——多普勒频率,它和目标岩屑颗粒间的相对运动速度成正比,而和电磁波的波速成反比; θ0——目标运动速度和目标与微波发射点连线间的夹角。

算法2:Faster R-CNN目标检测算法

输入:地面车辆目标样本的偏振高光谱图像;

平移变换如下:

LED藻类植物光源的照度均匀性研 究 ……………………… 吕慧敏,崔世钢,吴兴利,张永立,何 林(18)

步骤2:通过RPN网络生成RP集;

为进一步说明RPN,假设给定图像的分辨率为600×1000,输入图像后经过卷积操作得到最后一层的卷积特征图(大小约为40×60)。在这个特征图上使用n×n(本文中n=3)的卷积核(滑动窗口)与特征图进行卷积,最后一层卷积层共有m个特征图(本文为256),经过n×n的区域卷积后可以获得一个m维的特征向量,后边接cls-layer和reg-layer两个层分别用于分类和边框回归,cls-layer包含2个元素,用于判别目标和非目标的估计概率,reg-layer包含4个坐标元素(x,y,w,h),用于确定目标位置。RPN采用了anchor的映射机制来实现网络的平移不变性,n×n滑动窗口对应的每个特征区域同时预测输入图像的3种尺度(128,256,512)和3种长宽比(1:1,1:2,2:1)共9种选择的RP,对于这个40×60的特征图,总共有约20000(40×60×9)个anchor,也就是预测20000个RP。

步骤4:利用步骤3提取的建议特征图判定目标类别;

步骤5:通过边界框回归计算目标边界框的位置;

据世界黄金协会中国区董事总经理王立新介绍,GOLDHUB是一个纯公益性平台,首次为黄金投资者提供便利的单一在线资源库互动工具和黄金行业讯息成果,以协助其完成投资决策。

输出:在输出图像上显示检测结果。

4 实验测试

4.1 实验说明

在全场景仿真实验室内模拟某型无人机平台在低空条件下对地面军事目标进行侦察的图像数据,采用的模拟实验设备为偏振高光谱相机以及目标缩比模型,如图3所示。实验环境为:戴尔PRECISION TOWER 5810工作站,Intel(R)Xeon(R) E5-1660 v4 3.2GHz,32.0GB RAM,8GB SGRAM,Windows 7专业版+Matlab(R2016a)。实验中采用ZF模型预训练,同时用于网络参数的初始化。训练时的最大迭代次数设置为40000,达到最大次数停止迭代,得到训练好的最终模型,并使用该模型进行目标检测。

width=95.25,height=71.25width=94.5,height=70.5

width=93.75,height=69.75width=93,height=69

图3 图像采集设备和缩比模型

Fig.3 Imaging device and object models

4.2 实验数据准备

采集的数据样本分为3类,分别是主战坦克、装甲运兵车和装甲突击车,模拟不同场景下的目标图像采集,从中选取1000个图像样本,如图4所示。在所获得3000个图像样本中随机选取2400个样本用于模型训练,600个样本用于测试。

参照PASCAL VOC2007数据集标准,对数据样本进行格式、名称等具体设置。为保证实验规范性,将图像进行统一命名以便后续操作。利用ACDSee对图像样本进行批处理,按照PASCAL VOC2007标准设置为形如“000001.jpg”的格式。采用封装的打框代码对每个样本图像进行标定,首先将信息存储在txt文件当中,包括图片名、目标类别和目标左上角和右下角的坐标。txt文档生成后,将其转换为xml格式文件进行表示,每一幅图像样本对应一个同名的xml文件,即图像000001.jpg的目标标记信息保存在000001.xml中。

4.3 实验结果与分析

针对每一类目标,选取测试用的样本集对训练好的模型进行测试,实验时每种目标分10组、每组20个样本进行检测。同时将相同的测试样本运用于其它模型方法,并将结果进行比较,检测效果如图5所示。

Y o u n g是他给自己起的名字,他说他早把两个方块字组成的名字忘了。因为他们家在他出生前就移民美国了。所以他只知道他爹姓杨,江浙人士,别的一概不知,说也不想听。

main battle tankarmored carrierarmored assault vehicle grassland earthen ground desert beachhead

图4 模拟不同场景下所获取的目标图像

Fig.4 Object images in different background

main battle tankarmored carrierarmored assault vehicle R-CNN Fast R-CNN Faster R-CNN

图5 不同模型中3类目标的检测效果

Fig.5 Detection results for different models of 3 objects

对3种模型方法的测试结果经过汇总得到表4,以正确检测出目标为判定依据,在本文提出的模型方法中,3种军事目标的检测准确率均达到了90%以上,检测时间也达到了每秒2帧以上的水平,明显优于其他两种模型方法。相比于标准数据集中样本的多样性而言,同一型号的军事目标特征较为统一,适合进行模型训练,难点在于背景的纹理特征在有些地形情况下较为复杂,对目标特征的提取产生了一些干扰,在检测时出现了目标框标定在背景上的情况,通过将阈值提高,降低了错误目标框的显示。

表4 不同模型中的检测结果

Table 4 Detection results for different models

5 结论

目标检测的精度和速度是评估侦察监控平台性能的重要标准,将人工智能及机器学习引入到无人机等侦察打击平台取代传统的数学建模方式,也是未来作战样式下目标检测的发展趋势之一。本文利用偏振高光谱图像背景和目标之间高对比度的特性,通过模拟某型无人机在低空条件下对地面典型目标的数据获取,对所提出的模型进行样本数据的训练和目标检测实验验证,在选取的3类典型目标的检测中验证了其有效性。

需要指出的是,神经网络模型的训练对计算机平台的性能要求较高,同时在检测特定的目标时需要大量该类别目标图像样本的支持,从而训练模型参数。在获取目标图像质量较差的情况下,难以获得足够的有效特征进行检测,如何将偏振高光谱图像的多维度信息和检测模型相结合进行目标检测有待进一步验证,针对该问题,对模型框架进行改进,以提高模型在复杂情况下的检测性能,将是下一阶段研究的重要内容,相关工作正在进行当中。

参考文献:

[1] Clarke D, Grainger J F. Polarized Light and Optical Measurement[M]. Oxford: Pergamon Press, 1971: 56-60.

[2] 杨之文. 偏振光谱的测量及研究进展[J]. 光谱实验室, 2003, 20(6): 815-820.

YANG Zhiwen. Measurement and Achievement of Polarimetric Spectrum[J]. Chinese Journal of Spectroscopy Laboratory, 2003, 20(6): 815-820.

[3] 惠国保. 基于深层神经网络的军事目标图像分类技术[J]. 现代导航, 2016, 7(6): 430-436.

HUI Guobao. Auto target classification technology based on deep CNN[J]. Modern Navigation, 2016, 7(6): 430-436.

[4] Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J]. Science, 2006, 313(5786): 504-7.

[5] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[C]//International Conference on Neural Information Processing Systems. Curran Associates Inc. 2012: 1097-1105.

[6] ZHANG L, ZHANG D, TIAN F. SVM and ELM: Who Wins? Object Recognition with Deep Convolutional Features from ImageNet[C]// Proceedings of ELM-2015, 2015: 249-263.

[7] Hosang J, Benenson R, Dollár P, et al. What Makes for Effective Detection Proposals?[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2016, 38(4): 814-830.

[8] Girshick R, Donahue J, Darrell T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.

[9] HE K, ZHANG X, REN S, et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 37(9): 1904.

[10] Girshick R. Fast R-CNN[J/OL]. Computer Science, 2015,https://arxiv. org/abs/1504.08083.

[11] Vapnik V. Statistical Learning Theory[M]. John Wiley: New York, 1998.

[12] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 39(6): 1137.

[13] Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J/OL]. Computer Science, 2014, https://arxiv.org/abs/1409.1556.

[14] Everingham M, Gool L, Williams C K, et al. The Pascal Visual Object Classes (VOC) Challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303-338.

[15] Uijlings J R, Sande K E, Gevers T, et al. Selective Search for Object Recognition[J]. International Journal of Computer Vision, 2013, 104(2): 154-171.

[16] Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]//Computer Vision and Pattern Recognition. IEEE, 2015: 3431-3440.

[17] Zeiler M D, Fergus R. Visualizing and understanding convolutional networks[C]//European Conference on Computer Vision, 2013, 8689: 818-833.

Polarized Hyperspectral Object Detection withFaster R-CNN for Low-Altitude Platforms

HUANG Wei1,CAO Yujian2,XU Guoming2,3

(1.The27th Research Institute of CETC,Zhengzhou450047,China;2.Army Artillery and Air Defense Forces Academy of PLA,Hefei230031,China;3.Information Engineering College,Anhui Xinhua University,Hefei230088,China)

Abstract:The use of unmanned aerial vehicles (UAV) for reconnaissance requires continuous improvements in performance, as each new type of scene observed can place more stringent requirements for the accuracy and speed of object detection. Traditional object-imaging methods have difficulty meeting such requirements, and artificial object recognition is not suited for rapidly changing battle field environments. Leveraging the concomitant development of deep learning and hyperspectral polarization imaging, ground object detection based on fast R-CNNs is proposed that’s imulates a polarized hyperspectral low-altitude object detection platform. We describe a region proposal network module for training models. In its object detection phase, this approach generates a feature map by pooling feature regions into the map, which is then used to complete the object categorization decision. Three typical scaled models of military vehicles were selected to test the technique experimentally. With a polarization hyperspectral camera, object images in different scene conditions were acquired in simulated indoor and outdoor environments, and ground vehicles were successfully observed by a low-altitude UAV. The experimental results show that the proposed method achieves the ideal detection accuracy and speed when the ground object is effectively detected.

Key words:deep learning,polarized hyperspectral image,object detection,unmanned aerial vehicle (UAV)

中图分类号:TP391,TN911.73

文献标识码:A

文章编号:1001-8891(2019)07-0600-07

收稿日期:2017-08-23;

修订日期:2019-05-14.

作者简介:黄伟(1975-),男,高级工程师,主要研究方向为激光成像技术及应用。E-mail:89668550@qq.com。

通信作者:徐国明(1979-),男,博士后,副教授,主要研究领域为计算机视觉、图像稀疏表示及超分辨率重建。E-mail:xgm121@163.com。

基金项目:国家自然科学基金项目(61379105);中国博士后科学基金项目(2016M592961);安徽省自然科学基金项目(1608085MF140)。

标签:;  ;  ;  ;  ;  ;  ;  

基于FasterR-CNN模型的低空平台偏振高光谱目标检测论文
下载Doc文档

猜你喜欢