欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 202010630153X
申请人: 宁波大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-04-12
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于SAE的脱丁烷塔底部产品丁烷浓度实时监测方法,其特征在于,包括以下步骤:首先,离线软测量建模阶段包括如下所示步骤(1)至步骤(7);

步骤(1):利用丁烷塔设备中安装的7个测量仪表实时测量过程变量数据,直至采集得到N个样本数据,分别记录成7个列向量x1,x2,…,x7,并利用离线分析仪获取相同测量时刻塔底部产品丁烷含量的N个数据,对应记录成列向量y,其中xi由第i个过程变量的N个样本数据组成,i∈{1,2,…,7}分别对应于塔顶部温度,塔顶部压力,回流流量,底部产品出口流量,第6层塔板温度,塔底部温度A和塔底部温度B,其中A和B分别表示温度的测量位置;

步骤(2):根据如下所示公式对x1,x2,…,x7和y分别实施归一化处理,对应得到7个数据向量 和1个输出向量 并将数据向量 组建成一个数据矩阵N×7

其中,R 表示N×7维的实数矩阵,表示归一化处理后的第i个数据向量,xi(min)表示列向量xi中的最小值,xi(max)表示列向量xi中的最大值,y(min)与y(max)分别表示列向量y中的最小值和最大值,下标号i∈{1,2,…,7};

28×1

步骤(3):根据如下所示公式组建输入矩阵Z中的第k列输入向量zk∈R :T

zk=[X(k+3),X(k+2),X(k+1),X(k)]    ②上式中,X(k+3),X(k+2),X(k+1),X(k)分别表示数据矩阵X中的第k+3行,第k+2行,第k+

28×1

1行和第k行的行向量,k∈{1,2,…,n},R 表示28×1维的实数向量,n=N‑3,上标号T表示矩阵或向量的转置;

步骤(4):搭建一个由M层自编码器串联组成的SAE,并确定隐层神经元激活函数f(u),输出层神经元激活函数ζ(u),和各层自编码器的隐层神经元个数h1,h2,…,hM;其中u表示函数自变量;

步骤(5):利用BP算法依次训练SAE第1层自编码器,第2层自编码器,直至第M层自编码器的隐层和输出层的权重系数W1,W2,…,WM和 以及隐层和输出层的阈值b1,b2,…,bM和 具体的实施过程如下所示;

步骤(5.1):第1层自编码器的输入层有28个神经元,隐层有h1个神经元,输出层有28个神经元,分别初始化隐层和输出层的权重系数和阈值;

步骤(5.2):以z1,z2,…,zn做为第1层自编码器的输入,同时以z1,z2,…,zn做为第1层自编码器的输出,利用BP算法训练得到第1层自编码器的隐层和输出层的权重系数和 以及隐层和输出层的阈值 和 后,初始化m=1,其中分别表示输出向量 中的第4个,第5个,至第N个元素;

步骤(5.3):第m+1层自编码器的输入层有hm+28个神经元,隐层有hm+1个神经元,输出层有28个神经元,并分别初始化隐层和输出层的权重系数和阈值;

步骤(5.4):将第m层自编码器隐层的输出向量g1(m),g2(m),…,gn(m)组建成一个矩阵GmT T T

=[g1(m),g2(m),…,gn(m)] ,并将矩阵Gm与输入矩阵Z合并成一个矩阵Hm=[Gm,Z] ,其中,g1(m),g2(m),…,gn(m)的计算方式如下所示:步骤(5.5):以矩阵Hm的n个列向量做为第m+1层自编码器的输入,同时以z1,z2,…,zn做为第m+1层自编码器的输出,再次利用BP算法训练得到第m+1层自编码器的隐层和输出层的权重系数 和 以及隐层和输出层的阈值 和其中 表示(hm+28)×hm+1维的实数矩阵, 表示hm+1×1维的实数向量;

步骤(5.6):判断是否满足m+1<M;若是,则设置m=m+1后返回步骤(5.3);若否,则训练结束,保留栈式自编码器所有的权重系数W1,W2,…,WM和 以及阈值b1,b2,…,bM和

步骤(6):搭建一个只有输入层与输出层的单层神经网络,其中输入层包含H=h1+h2+…+hM个神经元,输出层包含1个神经元,输出层的激活函数为φ(u);

T H×n

步骤(7):将矩阵G1,G2,…,GM合并成一个矩阵G=[G1,G2,…,GM]后,将矩阵G∈R 中的n个列向量做为单层神经网络的输入,将 做为单层神经网络的输出,利用H×1 1×1

BP算法训练得到输出层的权重系数向量w0∈R 和阈值b0∈R ;

接下来就是利用在线实时采样数据,实现对脱丁烷塔底部产品丁烷浓度的在线实时监测,具体实施步骤如下所示;

步骤(8):在最新采样时刻t,对7个采样数据v1(t),v2(t),…,v7(t)进行归一化处理,得到归一化后的数据 具体的归一化方式如下所示:上式中,i∈{1,2,…,7};

T

步骤(9):根据at=[v(t),v(t‑1),v(t‑2),v(t‑3)]组建最新采样时刻的输入向量at,其中,行向量 v(t‑1),v(t‑2),v(t‑3)分别表示t‑1采样时刻,t‑2采样时刻,和t‑3采样时刻的采样数据经归一化处理后所组建的行向量;

步骤(10):以输入向量at做为栈式自编码器的输入,依次计算得到第1层自编码器,第2层自编码器,直至第M层自编码器的隐层输出向量ct(1),ct(2),…,ct(M),具体的实施过程如下所示;

T

步骤(10.1):根据公式ct(1)=f(W1at+b1)计算第1层自编码器的隐层输出向量ct(1),并初始化m=1;

步骤(10.2):将第m层自编码器的隐层输出向量ct(m)与输入向量at合并成一个列向量后,再根据公式 计算第m+1层自编码器的隐层输出向量

步骤(10.3):判断是否满足m+1<M;若是,则设置m=m+1后,返回步骤(10.2);若否,则得到M个隐层输出向量ct(1),ct(2),…,ct(M);

H×1

步骤(11):将隐层输出向量ct(1),ct(2),…,ct(M)合并成一个列向量Ct∈R 后,将Ct做为单层神经网络的输入,并根据公式 计算t采样时刻的输出估计值步骤(12):根据 计算出t采样时刻的脱丁烷塔底部产品丁烷浓度的在线监测值yt;

步骤(13):返回步骤(8),继续实施对下一个最新采样时刻的脱丁烷塔底部产品丁烷浓度的实时监测。