欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021100887231
申请人: 湖北工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于全局注意力时域卷积网络的网络故障预测方法,其特征在于,包括如下步骤:步骤1,将网络故障数据进行序列化并划分训练集和测试集;

步骤2,构建一个基于全局注意力时域卷积网络模型,包含时域卷积网络层,全局注意力层以及门控融合层;

步骤3,利用训练集对步骤2构建的基于全局注意力时域卷积网络模型进行训练;

步骤4,利用训练好的网络模型预测网络故障。

2.根据权利要求1所述的基于全局注意力时域卷积网络的网络故障预测方法,其特征在于:步骤1的具体实现方式如下;

步骤(1.1),对于网络故障的数据,根据其发生的时间节点参照时间序列化基准转化为样本序列;

步骤(1.2),对于序列化的数据,将70%的网络故障数据作为训练集,30%的网络故障数据作为测试集。

3.根据权利要求1所述的基于全局注意力时域卷积网络的网络故障预测方法,其特征在于:步骤2的具体实现方式如下;

步骤(2.1),构建一个时域卷积网络层,时域卷积网络层包括因果卷积,扩张卷积,残差连接部分,时域卷积网络层的输入是向量集合:x=(x1,x2,x3,...,xt)其中,xt表示的是输入的故障时间序列;

因果卷积对输入的向量进行计算和特征提取,因果卷积具有很强的时间限制,在t时刻的故障预测,只能用t时刻之前的故障数据进行网络故障预测:其中,p是对t时刻之前的故障数据进行特征提取,T表示的是特征提取数据的截至时间;

因果卷积对特征的提取取决于卷积核的大小,为能学习到更多的时间故障信息,引入扩张卷积,增大感受野的范围,并减小计算量:fk_d=(d‑1)×(fk‑1)+fk其中,fk_d表示的是添加扩张卷积之后的卷积核大小,d表示的是在卷积核内部插入的空洞数,fk表示的是插入前的卷积核大小;

为了避免在深度学习中出现梯度消失,使用ReLU函数作为激活函数:经过因果卷积,扩张卷积,激活函数,Dropout层输出F(x),为了提高模型的泛化能力,解决深层的网络结构引起的梯度爆炸问题,使用残差连接:H=x+F(x)

其中,x表示输入的向量集合,H表示经过残差块结构之后的输出结果;

步骤(2.2),构建一个全局注意力层,用全局注意力机制来挖掘网络故障之间的复杂关系,在得到预测可能发生网络故障的时候,利用全局注意力机制从目标对象中选择信息,得T

到不同的部分对于网络故障的影响程度,计算公式如下:a=hReLU(Wa[ht]+ba),其中,a指的是全局注意力向量,Wa和ba为全局注意力网络的权重矩阵和偏移向量,ht表示的是输入特T

征,h是表示将隐藏层的输出表示为注意力权重向量的投影,将ReLU作为激活函数,通过softmax函数,将注意力向量进行归一化,得到at,at表示t时刻的网络故障的注意力权重:at,i表示的是t时刻之前的第i个时刻的值,在经过全局注意力层之后,注意力分数和网络故障预测加权表示:

ht=∑Ht·at

步骤(2.3),构建一个门控融合层,用于对网络故障影响的多种结果进行融合,得出最终对网络故障的预测结果:

g=sigmoid(w1ui+w2ht+b)out=g*ui+(1‑g)*ht其中,g表示的是Gate门控融合,w1,w2分别表示的是两个权重,b表示的是偏置值,ui表示的是故障时间向量。

4.根据权利要求3所述的基于全局注意力时域卷积网络的网络故障预测方法,其特征在于:在门控融合层采用sigmoid函数作为激活函数。