欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 201811650041X
申请人: 陕西师范大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于一维残差卷积神经网络的脑电信号去噪方法,其特征在于由以下步骤组成:(1)选取脑电样本

从Physionet数据库中选取m个脑电样本,标记为脑电样本ED×N,其中D为脑电信号的通道数,N为脑电信号的采样点数,在馈入一维残差卷积网络进行训练和测试之前,每个脑电信号按以下方程进行归一化处理:式中max为样本数据xi的最大值,min为样本数据xi的最小值,其中1≤i≤n;

(2)构建含噪脑电信号样本

选取基线噪声或高斯白噪声或肌电噪声作为噪声,将不同信噪比的噪声分别加入到脑电样本中,构建成含噪脑电信号样本,按式(1)对含噪脑电样本进行归一化处理;

(3)划分网络训练集、测试集

使用数据增强方法扩充脑电样本和含噪脑电信号样本,并分别划分60%~80%作为网络训练集、20%~40%作为网络测试集,测试集与训练集无交叉;

(4)构建一维残差卷积神经网络

采用残差网络方法,将1个批处理归一层与2个一维卷积层依次连接,在一维卷积层的输出串联2个残差块,第二个残差块的输出依次连接1个一维卷积层和1个全连接层,构建成一维残差卷积神经网络;

(5)训练一维残差卷积神经网络

用训练样本训练一维残差卷积神经网络,采用Adam优化方法动态调整网络模型的学习率进行训练,得到训练好的一维残差卷积神经网络;

上述的动态调整网络模型的学习率进行训练为:用均方误差函数L(x,z)作为损失函数;

述均方误差函数L(x,z)为:

其中i为1,2,...,n,n是训练样本的数量为有限的正整数,x为输入信号,z为输出的重构信号。

(6)重建去噪脑电信号

将测试集的脑电数据输入到训练好的一维残差卷积神经网络方法中,输出对应的重构脑电信号。

2.根据权利要求1所述的基于一维残差卷积神经网络方法,其特征在于在构建一维残差卷积神经网络步骤(4)中,所述的残差块为:每个残差单元包括三个线性整流单元层、三个一维卷积层和三个批量正则层,通过快捷连接将残差块的输入和输出进行一个求和,三个一维卷积层的卷积核大小分别是16×1×5、16×1×10、32×1×5,批量正则层的输出与线性整流单元层的输入相连,线性整流单元层输出与卷积层的输入相连。

3.根据权利要求1所述的基于一维残差卷积神经网络方法,其特征在于在构建一维残差卷积神经网络步骤(4)中,所述的一维卷积层为:3个一维卷积层的卷积核大小分别为16×1×5、32×1×5、1×1×5,一维卷积层的填充方式为same,批量正则层输出与一维卷积层的输入相连,前面2个一维卷积层的输出与相互串联的2个残差单元的输入相连,后面1个残差单元的输出与第三个一维卷积层的输入相连。

4.根据权利要求1所述的基于一维残差卷积神经网络方法,其特征在于在构建一维残差卷积神经网络步骤(4)中,所述的全连接层为:第三个一维卷积层的输出与全连接层的输入相连,全连接层输出维度为400×1。

5.根据权利要求1所述的基于一维残差卷积神经网络方法,其特征在于在训练一维残差卷积神经网络步骤(5)中,所述的动态调整网络模型的学习率进行训练为:用均方误差函数L(x,z)作为损失函数,每次模型训练使用的样本数量为8,训练遍历所有样本100次,每过

10代学习率降为当前的0.1。