欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019106194198
申请人: 燕山大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-02-23
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于卷积神经网络的水泥原料立磨生料细度指标预测方法,其特征在于,包括以下步骤:步骤1:选取与生料细度相关的8个输入变量,对选取后的变量数据进行归一化处理,构建8个变量时间序列输入层,同时对归一化后的变量数据进行时间序列的处理;

步骤2:对输入的变量数据进行卷积池化及全连接运算,首先对输入数据进行卷积运算,并对经过卷积运算的输入数据进行池化,经过多次卷积池化后对输出数据进行全连接操作,再经过Droupout层处理完成对卷积神经网络预测模型前向训练的过程;

步骤3:卷积神经网络模型采用反向传播技术更新权值参数以提高生料细度预测精度,通过计算梯度的一阶矩估计和二阶矩估计而为不同的参数设计独立的自适应性学习率,更新卷积层的权值和偏置,完成对网络的参数微调,使生料细度模型的预测误差小于设定阈值,完成卷积神经网络模型训练;

步骤4:利用训练好的CNN模型对水泥原料立磨生料细度指标进行实时预测。

2.根据权利要求1所述的水泥原料立磨生料细度指标预测方法,其特征在于,在步骤1中根据生产过程选取8个与生料细度相关的关键控制因素作为输入变量,输入变量包括回渣皮带电流、回渣斗提电流、磨主机电流、喂料反馈、磨机压差、选粉机转速、磨机出口温度、磨机入口负压,采用时间序列来处理归一化后的输入变量数据,确定涵盖所有变量时延区间的时间范围,将该时间范围内的变量数据作为输入,使其对应于某一时刻的生料细度指标,其处理过程如下:确定包含各变量时延的时间区间,构建时间序列输入层,将一个时间区间内各变量数据对应于某一时刻的生料细度,使输入层包含各变量与生料细度指标的耦合关系,设时间区间为n,将8个变量按行依次输入构成矩阵,由生料细度预测模型选取的8个输入变量构成的时间序列表示为:x=(x1,x2,....,x8)                (1)式(1)中每个过程变量时间序列包含t个采样点:

xi=(xi(1),xi(2),...,xi(t))                           (2)其中,xi(i=1,2,...,8)为第i个过程变量的时间序列。

3.根据权利要求1所述的水泥原料立磨生料细度指标预测方法,其特征在于,步骤2具体包括如下过程:输入层的数据矩阵通过卷积层提取数据特征,根据水泥数据变量之间的特性,采用一维卷积核,使用n1个卷积核对输入数据进行卷积计算,该过程权值共享,得到n1个不同的特征图,设卷积层为第l层,则该层输出神经元的输入zl和卷积层的输出xl的表达式分别为式(3)和式(4):l l-1 l l

z=x *w+b                  (3)

式中,xl-1代表卷积层输入的特征向量,wl代表一维卷积核,bl表示输出特征向量对应的偏置;

xl=f(zl)                             (4)式中f(·)为激活函数,为提高模型的非线性能力,使用ReLU函数作为激活函数,其表达式为:f(x)=max(0,x)                            (5)根据水泥数据的特性,采用平均池化使模型具有更好的学习能力,池化层不含激活函数,池化层的输出神经元的输入al+1与池化层输出pl+1相等,第1+1层池化层输入pl与输出pl+1之间的关系表示为:式中, 表示对池化层输入pl中的m个特征值求和,其中m为一维池化核大小;

全连接层的输入为卷积池化过程得到的所有特征值,经过该层整合所有的特征信息,该层的输入xk-1与输出yk-1之间的关系表示为:yk-1=f(wk-1*xk-1+bk-1)                    (7)式中wk-1,bk-1分别为全连接层的权值和偏置;

防止训练过程出现过拟合现象,在全连接层之后加入Dropout层,提升网络模型的泛化能力,Dropout率设置为0.5;

输出层采用线性加权求和直接计算生料细度值,设该层权值和偏置分别为wk和bk,则输入xk与输出生料细度值y′之间的计算公式为:k k k

y′=wx+b                  (8)。

4.根据权利要求1所述的水泥原料立磨生料细度指标预测方法,其特征在于,步骤3采用反向微调的方法更新权值和偏置,在反向微调过程中,首先按照反向传播算法求得各层的误差灵敏度δ,然后根据误差灵敏度实现参数更新,输出层、全连接层、与全连接层相连的卷积层和池化层的误差灵敏度均由BP算法得到,卷积层与池化层相连时的反向传播算法如下:卷积层到池化层的反向传播过程中,设第1层为池化层,后接卷积层第1+1层时,池化层的误差灵敏度δl计算如式(9)所示,其中,池化层输出神经元的输入al和输出pl相等,其中,zl+1=pl*wl+1+bl+1           (10)式(9)中,δ1+1表示1+1层的误差灵敏度,zl+1是卷积层输出神经元的输入,rot180(·)表示旋转180度;

池化层到卷积层的反向传播过程中,当第1-1层卷积层之后连接第1层池化层时,卷积层的误差灵敏度计算方式为:其中,

式中,zl-1为卷积层输出神经元的输入,xl-1为卷积层的输出,同为池化层的输入,al为池化运算的结果,up(·)完成了池化误差数组放大与误差重新分配,其数组大小与卷积之后的大小保持一致,f′(·)为激活函数的导数;

由式(11)得到卷积层的误差灵敏度后,卷积核梯度和偏置梯度计算过程如式(13)和式(14),式中,xl-2是卷积过程中与卷积核wl-1做卷积运算的特征值;

分别根据式(15)和式(16)对卷积核W和偏置b进行更新;

wl-1=wl-1-μ*Δwl-1                   (15)bl-1=bl-1-μ*Δbl-1                     (16)式中,μ表示网络的学习率。