欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019103342817
申请人: 西安理工大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-11-14
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于栈式自编码器的非侵入式电力负荷识别方法,其特征在于,具体按照以下步骤实施:步骤1:构建电力负荷的负荷特征数据集

确定场景中的用电器,对用电器工作的电流波形数据进行采集,假设共m个用电器,则将有m个点数据采用错位滑动的方法进行处理,得到第一训练集数据即为电力负荷的负荷特征数据集;

步骤2:对步骤1中所得到的第一训练集数据进行降维

将第一训练集数据的第一个点作为起始数据,间隔一定数目的点数据对数据进行一次采样,将第一个点数据和采样点数据共同作为第二训练集数据,假设间隔数目为10,则第二训练集数据由I1,I10,I20,...,其中,I1,I10,I20,...为用电器的电流点数据,则降维维数为其中m是10的倍数;

步骤3:建立栈式自编码器模型

步骤3.1:将第二训练集数据作为第一层自编码器的输入数据,对第一层自编码器进行一次训练,即将第一层自编码器隐藏层的输出作为第二层自编码器的输入,共构建K层栈式自编码器;

步骤3.2:对所构建的K层栈式自编码器进行二次训练,即采用反向传播算法调整所有层的参数,实现网络微调;

步骤3.3:将完成二次训练的栈式自编码器最后一层自编器隐藏的输出信息作为用电器的特征集:假设一种用电器共有L组训练数据,经过栈式自编器训练后将得到L组特征;假n设共有n种用电器,其工作时的组合状态共有(2‑1)种,假设栈式自编码器最后一层自编码n器隐藏层的一组输出数据为x,n种用电器,(2 ‑1)种组合状态的特征集为步骤4:利用Softmax分类器对步骤3中得到的特征集进行分类辨识:将步骤3中最后一层自编码器后接Softmax分类器,将步骤3得到的用电器的特征集送到Softmax分类器中进行三次训练学习,具体利用Softmax的函数值组成深度学习模型,当需要对用电器的工作状态进行判断时,采集用电器工作的电流信息,将此电流信息作为深度学习模型的输入,便可以利用深度学习模型自动的对其进行辨识。

2.根据权利要求1所述的一种基于栈式自编码器的非侵入式电力负荷识别方法,其特征在于,所述步骤1中错位滑动的方法如下:假设采集到的用电器工作电流由I1,I2,I3,...连续个电流点数据构成;

步骤1.1:数据集中该种用电器的一个训练数据的起始时刻的电流为I1,将采集到的电流点数据中I1,I2,I3,...Im共m个点数据作为该用电器的第1组训练数据;

步骤1.2:将I2,I3,I4,...Im+1共m个用电器的电流数据作为该用电器的第2组训练数据;

步骤1.3:将I3,I4,I5,...Im+2共m个用电器的电流数据作为该用电器的第3组训练数据;

步骤1.4:按照步骤1.2.步骤1.3方法,重复此步骤,对采集的电流数据进行错位滑动处理,直至所获得的训练数据的最后一个点数据值等于采集到的电流数据的最后一个电流点数据的值,得到第一训练集数据即为电力负荷的负荷特征数据集。

3.根据权利要求1所述的一种基于栈式自编码器的非侵入式电力负荷识别方法,其特征在于,所述步骤3.1中一次训练实际为自编码器的编码与解码的过程,其中,编码函数hi为:解码函数为:

自编码器将输入yi编码为新的表达hi,再将hi解码重构回yi,其中,W(l,1)表示第l层自编码器输入层与隐藏层之间的连接权值,yi为第二训练集数据,b(l,1)表示第l层自编码器输入层与隐藏层之间的偏置,b(l,2)表示第l层自编码器层自编码器隐藏层与输出层之间的偏置。

4.根据权利要求1所述的一种基于栈式自编码器的非侵入式电力负荷识别方法,其特征在于,所述步骤3.2中K层栈式自编码器的确定具体如下:第二训练集数据中的训练数据维数为S,当50≤S时,采用如下步骤:①第1层自编码器节点数目=β1*S,其中;

②第i层自编码器节点数目=βi*上一层自编码器结点数目,其中,③判断前一层自编码器隐藏层的输出维数,如果维数大于50,重复②;如果小于50,设置最后一个自编码器节点的个数为10~20;

假设经过K次降维,隐藏层的输出的数据维数降到10~20维,栈式自编码器的层数则为K;

当S<50时,采用两层栈式自编码器对第二训练集数据进行一次训练,第1层自编码器节点数目=第2层自编码器节点数节点数的取值为10~20。

5.根据权利要求1所述的一种基于栈式自编码器的非侵入式电力负荷识别方法,其特征在于,所述步骤4中三次训练过程如下:步骤4.1:计算特征集中对象xi针对每一个类别ti对应的Softmax的函数值rθ(xi):rθ(xi)代表特征集中对象xi对应的Softmax的函数值;θ为训练模型参数;ti为样本对应n的标签勒边;p(ti=a|xi)针对每一个类别估算出的概率值a=1,2,3,...2‑1;

其中θ可以表示为:

步骤4.2:将步骤4.1所得到的rθ(xi)带入到损失函数公式中计算该对象的损失函数:对于xi选择最大概率取值对应的标签类别作为当前用电器工作状态的识别结果,并与用电器工作状态的真实类别作比较,所得Softmax的损失函数为:n n

C为样本类别总数,C=2‑1;a=1,2,3,...2‑1;

1{ti=j}为示性函数,其取值规则为:

p(ti=a|xi;θ)为将xi分类为类别a的概率;

步骤4.3:采用梯度下降优化算法对步骤4.2得到的损失函数进行优化,优化的过程即为辨识的过程,优化过程如下:对损失函数求偏导

采用梯度下降法对上式求解极小值,采用如下公式对参数θ进行更新;

μ为学习速度。