欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021101864383
申请人: 青岛科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2024-02-23
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于深度混合神经网络的快速准确水声信号调制方式识别方法,其特征在于,该方法包括以下步骤:

S1:首先对接收到的水声信号进行预处理;

S2:搭建深度混合神经网络;

S3:训练所述S3中的深度混合神经网络;

S4:将S1中预处理后的水声信号输入至S3中训练好的深度混合神经网络,进行水声信号调制方式识别,最后输出信号调制方式。

2.如权利要求1所述的水声信号调制方式识别方法,其特征在于,所述S1中对水声信号进行归一化操作与变维处理;

所述归一化操作公式为:

其中,S为原始信号,S′为归一化后的信号,max为原始信号的最大值,min为原始信号的最小值;

所述变维处理:将一维S′归一化后的信号重塑为二维。

3.如权利要求1所述的水声信号调制方式识别方法,其特征在于,所述S2中深度混合神经网络搭建步骤,包括:

S2‑1循环层结构设计;

循环层公式为:

Ot=g(V·St)

St=f(U·Xt+W·St‑1)其中,t代表时刻,Xt为t时刻输入,St为t时刻隐含层的值,输出值为Ot,U为输入的权重矩阵,V为输出的权重矩阵,W为隐含层输出给下一时刻的权重矩阵;

S2‑2卷积层结构的设计:

卷积核的计算公式为:

其中, 代表卷积运算, 代表矩阵加法,FAi代表第i层的输出特征图,Wki代表第i层第k个卷积核,Bki代表第i层第k个卷积核对应的阈值矩阵;

S2‑3全连接层结构的设计:全连接层的计算公式为:

其中, 为矩阵乘法, 矩阵加法,FCAi是第i层全连接层的输出,WFCi是第i层全连接层的权值矩阵,FCBi是第i层全连接层的阈值矩阵。

S2‑4输出层softmax函数为:其中,pi代表softmax的第i个输出值,zi为第i个输出层神经元输出。

4.如权利要求3所述的水声信号调制方式识别方法,其特征在于,所述S2‑1中使用门控循环单元来构造循环层,公式为:Zt=σ(Wz⊙[ht‑1,Int])rt=σ(Wr⊙[ht‑1,Int])其中,⊙表示元素的智能乘积,tanh与σ分别代表Tangent函数与Sigmoid函数,Int为t时刻输入,ht‑1为t‑1时刻隐含层输出,ht为t时刻隐含层输出。Wz、Wr与Wh是经过学习的权重矩阵;Zt为更新门;rt为重置门; 为候选态。

5.如权利要求3所述的水声信号调制方式识别方法,其特征在于,所述S2‑2中,第一层卷积层设置为:包含三种一维卷积核,其尺寸分别为8、16、32;本层输入经三种一维卷积核卷积,并拼接此三种一维卷积核的卷积结果作为当前层的输出;第二层卷积层设置为:包含三种一维卷积核,其尺寸分别为27、45、63。本层输入经三种一维卷积核卷积,并拼接此三种一维卷积核的卷积结果作为当前层的输出。

6.如权利要求1所述的水声信号调制方式识别方法,其特征在于,所述S3中所述深度混合神经网络训练步骤包括:

S3‑1采用小批量梯度下降法划分数据集,将数据集分成统一大小的数据块分批输入,神经网络每次迭代学习一批次数据;

S3‑2使用Adma优化器作为调整神经网络参数的优化器:训练过程中,神经网络由损失函数的损失值计算神经网络梯度,并根据网络梯度更新权值参数。

7.如权利要求6所述的水声信号调制方式识别方法,其特征在于,所述S3‑1中使用交叉熵函数作为神经网络的损失函数,神经网络向着最小化损失函数的方向学习,损失函数为:其中,N为输出层神经元个数, 为输出层第i个神经元输出的预测值,Yi为输出层第i个神经元对应的真实值,损失函数的值越小,表明神将网络对数据学习的越好。

8.如权利要求6所述的水声信号调制方式识别方法,其特征在于,所述S3‑2中,所述Adam优化器结合一阶动量与二阶动量算法修正偏差,调整神经网络梯度,利用调整后的神经网络梯度更新神经网络权值:所述一阶动量公式为:

mt=β1*mt‑1+(1‑β1)*gt为t时刻计算出的梯度,mt是t时刻的一阶动量;一阶动量是各个时刻梯度方向的指数移动平均值,约等于最近(1‑β1)个时刻的梯度向量和的平均值;

所述二阶动量公式为:

为t时刻计算出的梯度,Vt为t时刻的二阶动量,二阶动量反应了一段时间内的梯度变化。

9.如权利要求8所述的水声信号调制方式识别方法,其特征在于,m0与V0的初始值均为

0,因此,在神经网络训练初期mt、Vt的值会接近于0,基于此,Adam优化器对mt、Vt修正偏差来解决这个问题,修正偏差公式如下:与 是修正后的一阶动量与二阶动量,由此得出Adam优化器更新神经网络权值的梯度公式,

神经网络的权值更新公式为,

wt为t时刻的神经网络权值,α为神经网络学习率,合适的学习率能使神经网络更快的收敛。