1.一种基于R‑D图与深度神经网络的低空小目标检测方法,其特征在于包括如下步骤:步骤1、对雷达接收机采集的回波信号进行预处理,获取信号的R‑D图;
具体包括以下几个步骤:
1‑1、将雷达接收机采集的一维离散回波信号,以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由N个长度为R的脉冲信号组成,则二维矩阵信号的大小为N×R;
1‑2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号为:xi=ai‑1+ai+1‑2ai,1<i<N
其中ai代表第i行未经对消的脉冲信号序列;
1‑3、对滤波后位于同一距离单元的信号序列yj,1≤j≤R进行加窗操作,即:zj=yj×w(n)
w(n)=0.54‑0.46cos[2πn/(N‑2)],0≤n<N‑2为汉明窗函数,具有与脉冲重复周期数相同的点数;
1‑4、对加窗结果进行快速傅立叶变换并求模,得到R‑D图M:
M=(|fft[zj]|),1≤j≤R
步骤2、构建深度卷积神经网络并利用网络预测R‑D图中每个局部区域分别属于目标和背景的类别概率,以及该区域包含目标时,其中心与目标位置之间的偏移量;具体实现流程如下:
2‑1、使用滑动窗口技术对R‑D图做切片处理,获取一系列代表不同R‑D单元的图像块;
为提高目标定位的准确率,滑动窗口的宽和高均为奇数,且根据目标回波在R‑D图中的分布范围设定;
2‑2、对每个图像块进行限幅处理,即假设图像块中元素的最大值为Patchmax,则通过将每一个单元的幅值除以Patchmax使得图像块中元素的最大值为1;
2‑3、利用构建的深度神经网络计算输入的图像块分别属于目标和背景的类别概率,以及该图像块包含目标时,该图像块中心与目标实际位置之间的偏移量;
步骤3、结合预测的类别概率和位置回归的偏移量,判断是否存在,以及存在目标时的目标位置;
构建的深度卷积神经网络由三个部分组成:用于空间特征提取的全卷积神经网络,用于特征映射的BP神经网络,以及两个用于图像块类别与位置预测的功能层;各部分的具体结构描述如下:第一部分用于空间特征提取的全卷积神经网络共包含3个卷积层,均使用3×3大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、16和32;在第二个和第三个卷积层之后分别是一个窗口大小为2×2、步长为2的最大池化层;每个卷积层之后默认跟着一个激活层,且激活函数为ReLU;
第二部分用于特征映射的BP神经网络由两个全连接层构成,分别包含200和100个隐含节点,且第一层的输入是展平成一维向量的图像卷积特征;
第三部分两个用于图像块类别与位置预测的功能层,由输出节点数均为2的类别预测层和位置回归层组成,分别与特征映射模块最后一层的100个节点之间进行全连接;类别预测层会使用Softmax函数将网络的原始输出值转化为概率,计算公式为:其中 为类别预测层第i个节点的原始输出,ncls为类别预测层的节点个数。
2.根据权利要求1所述的一种基于R‑D图与深度神经网络的低空小目标检测方法,其特征在于所述的步骤3结合每个局部区域的类别概率和位置回归偏移量获取目标检测结果,具体分为基于类别概率的初步识别和基于位置投票的精确识别两个部分,其流程如下:
3‑1、预设目标存在的概率阈值为Tp,若某一图像块属于目标的预测概率大于等于阈值Tp,则初步判别该图像块包含目标,并将其中心在R‑D图中的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;
3‑2、根据目标图像块的分布密度进一步剔除识别错误的图像块;具体地,对每个值为1的R‑D单元,统计其(w/2,h/2)邻域内单元值为1的个数Nones,若Nones/(w·h)<0.5,则认为该单元所对应的图像块为背景,其中w和h为图像块的宽和高;
3‑3、对每个可能包含目标的图像块,利用网络位置回归层的预测结果(dx,dy)估计目标在R‑D图中的真实位置(xpre,ypre),具体计算公式如下:xpre=round(x+dx·w)
ypre=round(y+dy·h)
其中(x,y)为图像块中心在Range‑Doppler图中的位置,round(·)为四舍五入就近取整函数;
3‑4、统计所有图像块的位置投票结果,即Range‑Doppler图中每个单元被认为是目标位置的次数;若单元(x,y)处的投票统计结果Nxy满足下述条件则判定单元(x,y)处存在目标:其中 为参与投票且包含单元(x,y)的图像块数量,Tvote为设定的投票阈值。
3.根据权利要求1所述的一种基于R‑D图与深度神经网络的低空小目标检测方法,其特征在于步骤2‑3中:(1)从雷达信号的R‑D图获得一系列图像块之后,首先根据是否包含目标将所有的图像块分为正样本和负样本,然后采用随机方式从负样本中抽取与正样本等量的图像块作为训练数据,与正样本一起输入深度卷积神经网络进行训练;
(2)深度卷积神经网络的损失函数由分类损失Losscls和回归损失Lossreg两部分组成,且分类采用交叉熵损失,而回归采用smooth L1损失;网络训练时的损失由下式获得:Losstotal=Losscls+λ·Lossreg
其中λ为调整两类损失贡献大小的权重因子,Ncls和Nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个图像块的真实类别标签, 是图像块包含目标时其中心与目标位置之间的相对偏移量,而(dxk,dyk)为位置回归层的输出;假设目标在R‑D图中的位置为(xobj,yobj),含有目标的图像块的中心在R‑D图中的位置为(x,y),且图像* *块的宽高分别为w和h,则该图像块相对于目标的实际偏移量(dx ,dy)为:(3)由于Losscls的计算含有对数操作,对类别预测层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;
(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;
(5)使用学习率为0.001,动量系数为0.9的动量梯度下降方法优化网络参数。