1.一种基于深度迁移学习的理论线损率预测的方法,其特征在于,所述方法包括如下步骤:
步骤1,建立由多个RBM模型堆叠而成的DBN深度置信网络;其中,每个RBM模型所得对数似然函中的参数θ需用对比散度算法求导;
步骤2,将DBN深度置信网络的输出层连接到DNN模型的输入层,组成DBN‑DNN深度学习模型;其中,DNN模型由多层普通神经网络组成,且最后一层为输出层;
步骤3,冻结DBN‑DNN深度学习模型深度网络中的下层DBN,然后用MMD法度量源数据与任务预测数据的分布距离,并迁移出源样本中ρi>0的数据,获得基于迁移出的数据微调DBN‑DNN中的DNN结构的模型,即TDBN‑DNN迁移深度学习模型:步骤4,利用TDBN‑DNN迁移深度学习模型来模拟电网运行时的负荷数据、电源数据和母线电压数据与线损率之间的非线性映射关系,并对线损率进行预测;
步骤4的具体步骤如下:
(1)数据处理
对输入数据负荷数据、电源出力数据、母线电压数据标准化处理,如式(32):式(32)中,αi,j代表第j个数据特征的第i个样本数据,i=1,2,L,MC,j=1,2,L,2r,α'i,j代表第j个数据特征的第i个样本数据标准化后的数据,αmin,j代表第j个数据特征在样本数据中的最小值,αmax,j代表第j个数据特征在样本数据中的最大值;
(2)TDBN‑DNN迁移深度学习模型模拟模型来模拟电网运行时的负荷数据、电源数据和母线电压数据与线损率之间的非线性映射关系根据样本的规模及实时性要求,确定TDBN‑DNN迁移深度学习模型的隐藏层数量及其节点数量,并初始化网络参数;然后用标准化后的负荷数据、电源出力数据、母线电压数据样本数据为输入数据,对应断面线损率为标签数据,利用贪心无监督学习算法逐层对整个DBN深度置信网络模型逐层训练;最后将DBN的输出的特征向量给DNN一个较好的初值,采用BP算法用对应断面线损率有监督地训练DNN来拟合标签数据;
(3)TDBN‑DNN迁移深度学习模型预测线损率对任务目标输入数据进行标准化处理后,将此数据输入TDBN‑DNN线损率预测模型,得到预测线损率值。
2.根据权利要求1所述的一种基于深度迁移学习的理论线损率预测的方法,其特征在于,所述步骤1的具体步骤如下:
一、建立DBN深度置信网络
RBM模型是一个能量模型,对于一组已知的状态(v,h),它的能量函数定义为Eθ(v,h),其中θ为网络参数θ={ai,bj,wij},它的隐含层与可视层的联合概率分布定义为p(v,h),即:式(1)中m为输入单元个数,n为输出单元的个数,ai为每个输入单元实值偏置量,bj为每个隐单元的实值偏置,vi用来表示输入数据,hi为隐单元输出数据,wij为实值权重矩阵;
式(2)中Zθ为配分函数, 由受限波尔兹曼机各层之间的条件独立性可知,当给定输入数据时,输出层节点取值满足如下条件概率:式(3)中 为sigmoid激活函数,输出层的数据确定后,输入节点的取值条件概率为:
给定一组训练样本G={g1,g2,L,gs},训练RBM模型,调整参数θ,以拟合给定的训练样本,通过最大化网络的似然函数L(θ)得到参数θ,即 为简化计算,将其写为对数形式为:
二、CD训练算法
用对比散度算法对对数似然函数中的参数θ求导,如下:各参数的更新准则为:
Δwij=εCD(<vihj>data‑<vihj>recon) (10)Δai=εCD(<vi>data‑<vi>recon) (11)Δbj=εCD(<hj>data‑<hj>recon) (12)式(11)—(12)中,εCD为学习步长,<hj>recon表示一步重构后的模型定义的分布。
3.根据权利要求1所述的一种基于深度迁移学习的理论线损率预测的方法,其特征在于,步骤2的具体步骤过程如下:
一、前向传播过程
f(p)=p (14)hw,b(p)=δ(wp+b) (15)式(16)中: 代表第l层第j节点与第l‑1层第i节点之间的联接权重参数; 代表第l层第j节点的截距项;
式(17)中 代表第kl层第j节点的输出值;
二、反向传播过程
对于作为输出层的第kl层的输出单元i,其残差计算公式如下:对于l=kl‑1,kl‑2,kl‑3,L,2的各层,第l层的第i节点的残差计算式如下:
1 1 c c
对于一个固定训练样本集{(u ,y),L,(u ,y)},包含c个样本,利用小批量梯度下降法求解深层神经网络,其损失函数为:式(20)中,权重衰减参数λ用于控制式(20)中两项的重要性;因此,小批量梯度下降法中每次迭代对于参数w和b的更新如下:。
4.根据权利要求1所述的一种基于深度迁移学习的理论线损率预测的方法,其特征在于,步骤3中的具体过程如下:
一、度量源数据与任务数据分布差异:假设分别存在一个满足d分布的源数 和一个满足q分布的目标(s) (t)
数据 X ,X 的最大均值差异MMD可以表示为:式(23)中H表示再生核希尔伯特空间RKHS,φ(·):X→H表示原始特征空间映射到RKHS的非线性特征映射核函数;由于RKHS通常是高维,甚至是无限空间,对应的核选择表示无穷维的高斯核:
2
式(24)其中σ函数的宽度参数;在此用MMD的平方形式,即MMD;将其展开为:在此引入核技巧:
<η(x),η(x')>H=<K(x,g),K(g,x')>H=K(x,x') (26)式(25)简化为:
三、最大均值差异贡献系数迁移源数据为了找出源数据和目标数据不相关或相关性不大的数据,在此,通过定义每个源数据的最大均值差异贡献系数CCMMD来筛选源数据;
用ρi表示第i个样本的最大均值差异贡献系数;假设缺少第i个源数据样本的MMDγ≠i为:式(28)中MMDγ≠i表示缺少第i个源数据样本的最大均值距离,其中γ=1,2,L,Ns则式(28)中ρi表示第i个样本的最大均值差异贡献系数,若ρi>0,说明第i个样本是对MMD有贡献的,相反若ρi≤0,说明第i个样本是对MMD有“负”贡献的;通过计算每个源数据的ρi,迁移出ρi>0的样本数据,得到和目标数据分布更接近的源数据;
四、冻结DBN‑DNN的DBN层,获得基于迁移出的数据微调DBN‑DNN中的DNN结构的模型,即TDBN‑DNN迁移深度学习模型。