欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2018108060780
申请人: 杭州电子科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于深度卷积神经网络的雷达一维距离像目标识别方法,其特征在于,包括以下步骤:

S1:采集数据集,将N个雷达采集到的HRRP数据集依据目标的种类进行合并,其中目标的种类为5,每种种类的数据分别在不同的数据段里选择训练样本和测试样本,在训练集和测试集样本的选取过程中,保证所选取的训练集的数据与雷达所成姿态涵盖测试数据集与雷达所成的姿态,各类目标训练集和测试集的样本数的比例为8:2,将挑选的数据集记作其中Xi表示第i个样本,yk表示第k种目标,i0表示样本总数;

S2:对S1采集到的数据进行预处理,对挑选的数据集T中的每一个样本使用补偿对齐法进行对齐,然后再对对齐的样本加入小强度的高斯随机噪声,随机左右平移很小的单位扩充数据集,再对扩充后的数据集进行能量归一化得到归一化后的数据;

S3:从预处理后的数据中提取特征,对S2预处理后的数据进行幂次变换,并将幂次变换的结果进行横向相连,再对幂次变换后的数据进行谱图特征提取;

S4:设立一个阈值将采集到的雷达HRRP信号分成低信噪比和高信噪比样本两个部分;

S5:构建基于稳健玻尔兹曼机的特征增强算法,算法利用信噪比较高的训练样本特征包含的先验信息,对信噪比较低的样本特征进行特征增强;

S6:构建基于卷积神经网络和基于LSTM的双向循环神经网络的HRRP目标识别模型,实现雷达HRRP的自动识别功能;

S7:对经过步骤S6构建好的模型,使用梯度下降算法对构建的卷积池化和循环神经网络的模型参数进行微调,使用训练数据迭代num_steps步后,得到有效的目标识别模型,其中损失函数使用的是交叉熵损失,其表达式为: 其中pi表示对应样本的标签,ai表示模型计算得到的概率值,num_steps=30000;

所述S2具体为:

S2.1:对步骤S1中的数据集T中的样本进行对齐,T中的每个数据样本皆为256维度,原始数据样本表示为:X=[x1,x2…,x256];

S2.1.1:新的数据样本将三个原始样本按照横向粘贴在一起构成一个256*3的数据集,表示为X′=abs([X,X,X])=[x′1,x′2,…,x′768],其中,abs()为对其中每个元素的值取绝对值;

S2.1.2:构建一个256维的序列Y=[y1,y2…,y256],其中,yi=exp(k||i‑128.5||2)其中k表示控制因子,||·||2表示求二范数操作;

S2.1.3:求 得到d之后,从X'中取出第d+1到第d+

256个连续的点作为对齐后的数据X″=[x′d+1,x′d+2…,x′d+256];

S2.1.4:将S1中数据集T中的每一个样本重复步骤S2.1.1,S2.1.2,S2.1.3得到的对齐后的样本数据集记为T1;

S2.2:将对齐的数据T1进行能量归一化,用对齐的数据除以他们自身的范数现对数据的能量归一化,根据归一化公式对每一个样本实施公式 将归一化后的数据集记作T2;

所述S3具体为:

∴ r

S3.1:对经过S2.2处理的数据T2中的每一个样本进行幂次变换,得到xpower=(X ) ,其中r

r为幂次变换的次数,(.)表示将括号内的向量中每一个元素分别取r次方,其中幂次变换r分别取0.3,0.4,0.5,0.6,0.7,并将幂次变换后的结果横向相连,横向拼成一个新的特征∵ ∴ 0.3 ∴ 0.4 ∴ 0.5 ∴ 0.6 ∴ 0.7X =[(X ) ,(X ) ,(X ) ,(X ) ,(X ) ];

∵ 2

S3.2:谱图特征提取,由如下公式得到:Xspectrogram(m,n)=|STFT(X )|,2

其中,STFT(·)表示对括号内的信号做离散短时傅里叶变换,|·|表示对内部的矩阵的每一个元素取模再平方;变换后将二维谱图特征中的每一个元素取绝对值得到最终的特征,得到:

X'spectrogram=abs(Xsepctrogram);

所述S4具体为,设立阈值将HRRP信号分为高信噪比样本和低信噪比样本两个部分,HRRP的信噪比定义为:

其中,Pl表示原始测试HRRP在第l个距离单元内的功率,256表示距离单元个数, 表示接收机在未接收到信号时的热噪声方差,设定阈值为20,即当SNR≥20dB时,判断为高信噪比样本,当SNR<20dB时,判定为低信噪比样本;

所述S5具体为:

S5.1:构建模型,基于稳健玻尔兹曼机特征增强算法的能量函数定义如下:其中,第一行描述了噪声以及控制高信噪比HRRP特征模型和噪声模型之间的交互,f表示高信噪比HRRP数据的特征,h表示高信噪比HRRP数据特征的隐含层节点,s表示控制噪声的指示变量,si表示第i个控制噪声的节点,gk表示噪声的隐含节点,g表示噪声的隐含层节点, 表示表示低信噪比HRRP 数据的特征,μ表示耦合因子,控制高信噪比HRRP数据特征和低信噪比HRRP数据特征的耦合程度;

第二行描述了高信噪比HRRP的高斯受限玻尔兹曼机模型,第三行表示噪声的受限玻尔兹曼机模型,其中 特表示噪声在第i个节点的均值和方差,bi、σi表示高斯受限玻尔兹曼机模型第i个可视节点的均值和方差,cj表示高斯受限玻尔兹曼机模型第j个隐藏节点的偏移量,Wij表示高斯受限玻尔兹曼机模型第i个可视节点到第j个隐藏节点权重,di表示受限玻尔兹曼机模型第i个可视节点的偏移量,ek表示受限玻尔兹曼机模型第k个隐藏节点的偏移量,Uik表示受限玻尔兹曼机模型第i个可视节点到第k个隐藏节点权重,λ1,λ2表示权重因子;

S5.2:利用步骤S4提取的高信噪比HRRP样本提取的特征训练学习一个高斯受限玻尔兹曼机模型,将训练所得的模型参数作为基于先验知识的稳健玻尔兹曼机特征增强算法中高斯受限玻尔兹曼机模型部分的初始化参数,再在高信噪比HRRP中加入噪声,提取特征,训练得到基于先验知识的稳健玻尔兹曼机特征增强算法的所有参数;

S5.3:判断经过S3处理后的样本是属于低信噪比样本还是属于高信噪比样本,若是属于高信噪比样本,则不作处理,若是属于低信噪比样本,则将从低信噪比样本中提取的特征经过S5.1和S5.2构造的玻尔兹曼机模型作特征增强处理得到增强的特征;

所述S6具体为:

S6.1:将S3和S4所提取的特征图数据集记为x,x作为卷积神经网络的输入,在送进输入网络之前,x为64×960固定大小的谱图送入神经网络,雷达谱图是单通道的特征,在训练和测试的过程中每次送入网络一个batch=128张图片,神经网络的输入为一个64*960*128的三维矩阵,

S6.2.1:使用4个卷积层和4个池化层交替连接,组成卷积神经网络,每个卷积层使用pi个大小为mi×ni的卷积核进行卷积操作,对于每个卷积层的输入xi,卷积之后得到输出其中pi表示第i个卷积层,卷积核的个数,mi,ni表示第i个卷积层的卷积核大小,yi表示输入xi与卷积核执行卷积操作,并经过激活函数f(·)后的输出值,Wij,bij分别表示第i个卷积层的第j个卷积核的权重和偏置,其中,p1=64,m1×n1=5*5;

p2=32,m2×n2=5*5;p3=16,m3×n3=3*3;p4=1,m4×n4=3*3; 初始化为服从标准正态分布的权重分布; 全部设置为常数1;激活函数f(x)采用relu激活函数,

S6.2.2:池化层池化窗口大小为3*3,偏移值为2,池化方法采用最大池化方法,提取卷积核视野内最最大化的特征,对于卷积层卷积得到的输出yi进行池化可以得到ypooli=max(yi),i=1,2,3,4其中yi代表第i个卷基层的输出,即第i个池化层的输入,max(yi)代表从当池化窗口从yi上滑动的时候,在滑动的视野内提取最大值组成池化特征图;

S6.2.3:在卷积池化的过程中,特征图均使用全0填充,卷积过程中卷积核的移动步长设置为1,池化过程中池化窗口的移动步长设置为2,根据公式ylength=(xlength/步长),ywidth=(xwidth/步长),经过S5.1处理后的特征图在经过四层卷积池化层之后变为4*60*p4=4*

60*1,其中,1代表池化特征图的深度,xlength代表输入图像的长度,xwidth代表输入图像的宽度,ylength代表输出图像的长度,ywidth代表输出图像的宽度;

S6.2.4经过S6.2.1,6.2.2和6.2.3处理后第四个池化层的输出为4*60*1,由于batch=

128,故ypool4=(128,4,60,1),其中,第一维代表batch,即每次送入神经网络的谱图数量,

4,60,1分别代表第四个池化层输出的谱图的长度、宽度及深度;

S6.3:构建基于LSTM的循环神经网络,具体为:S6.3.1:双向循环神经网络的主体结构为两个单向循环神经网络的结合,在每一个时刻t,输入同时提供给这两个方向相反的循环神经网络,输出为这两个单向循环神经网络共同决定,设置n_inputs=60,n_steps=4,n_hidden_units=128,n_class=5,其中n_inputs=60代表输入层神经元数目,即谱图特征中每行60列的数值,n_steps=4代表4行的数据,以一行一行像素值处理,便是4行;n_hidden_units=12表示隐层的神经元数目,n_class=5表示输出层的神经元数目,即代表所挑选的类别数目为5类;

S6.3.2:对双向循环神经网络的权重和偏置进行初始化,输入层和隐层之间的权重记为Weights1,其维度为shape=(n_inputs,n_hidden_units),隐层和输出层之间的权重记为Weights2,其维度为shape=(n_hidden_units,n_class),权重初始化采用与卷积神经网络相同的高斯分布,输入层和隐层之间的偏置记为biases1,其维度为shape=(n_hidden_units),隐层和输出层之间的偏置记为biases2,其维度为shape=(n_class),均初始化为常量1,双向的初始状态皆记为state=0,双向循环神经网络的所有时刻共享权重,偏置和初始状态state;

S6.3.3:将通过步骤S5得到的4*60的特征谱图按列拆分,拆分出来的每一列作为一个序列,每一个序列未由4个像素组成的向量,双向循环神经网络不同时刻的输入分别是拆分出来的batch个序列,从第四个池化层得到的特征图为三维,通过tensorflow中的reshape函数将输入数据变成(batch*n_steps,n_inputs)二维的适合循环神经网络输入层的形式,将reshape后的数据记作X1_in,则第一层的输出为X1_out=tanh(X1_in*Weights1+biases1),同时作为隐层的输入,其中tanh()是激活函数,lstm_fw_cell=tf.contrib.rnn.BasicLSTMCell(n_hidden_units,forget_bias=

1.0)

lstm_bw_cell=tf.contrib.rnn.BasicLSRMCell(n_hidden_units,forget_bias=

1.0)

outputs=tf.contrib.rnn.static_bidirectional_rnn(lstm_fw_cell,lstm_bw_cell,X1_out)

其中,lstm_fw_cell代表前向的循环神经网络,lstm_bw_cell代表反向循环神经网络,forget_bias=1.0代表LSTM不会忘记任何信息,outputs代表X1_out经过的输出;取输出序列中的最后一个X2_out=outputs[‑1],作为输出层的输入,a=tanh(X2_out*Weights2+biases2),为双向循环神经网络每一个时刻batch个输出的组合,输出的batch中的每一个序列的维度是n_class,a={a1,a2,a3,a4,a5};

S6.4:构建softmax层,将a作为softmax分类器的输入特征,进行分类,假设用于训练的雷达HRRP样本来自5个不同的目标,训练得到softmax回归模型的参数集θ之后,雷达测试HRRP样本的特征a对应于第i个目标的概率值p(a|i)定义为:其中,i表示目标的标号,i=1,2,…,5,5为总目标数,θi表示对应于目标i的参数,表示归一化向量,使雷达测试HRRP样本a对应于所有目标模型的概率和为1;

S6.5:通过最大后验概率来对样本进行判决,将测试样本分类到最大目标条件似然值所对应的目标c中:

代表模型判断a属于5个类别分别会有一个对应的概率,从判断的5个概率中挑选最大概率所属的类别赋给c,即为目标模型。